Skip to main content

Ogni anno emergono in media un paio di buzzword nell’ambito delle tecnologie dell’informazione, ossia dei nuovi termini in voga inerenti stili, tecnologie o abitudini innovative. Avendo già parlato di blockchain, mi sembra giusto dedicare spazio anche al machine learning. Anzitutto vorrei precisare che non si tratta di una nuova disciplina, anzi. Da studente di dottorato, ne sentivo parlare già nel (lontano, informaticamente parlando) 2003.
La cosa buffa è che all’epoca la buzzword era data mining, perché le tecniche di machine learning erano note da tempo ma si cominciava ad usarle per affrontare problemi nuovi, principalmente in ambito medico e genomico. Era l’anno del completamento dello Human Genome Project (HGP), forse il primo esempio di studio sui Big Data.
Ma allora perché, a distanza di quasi quindici anni, si parla di machine learning come se fosse una nuova disciplina? La ragione è semplice: oggi abbiamo a disposizione il Cloud e le GPU.
Con il Cloud possiamo immagazzinare e gestire in modo efficiente ed economico grandi quantità di dati. Con le GPU possiamo raggiungere livelli di parallelismo nell’elaborazione dei dati che anni fa potevamo solo sognare. Grazie a queste tecnologie abilitanti, possiamo finalmente realizzare algoritmi di machine learning sofisticati ma comunque efficienti.
Nello specifico, possiamo sviluppare reti neurali a molti livelli (si parla di deep learning), che possiamo allenare in modo che apprendano a classificare oggetti di qualsiasi tipo (immagini, testi, video, tracce sonore, ecc.). Esempi notevoli sono il sistema Watson di IBM, molto potente nell’analisi dei testi, e Inception di Google, che dà risultati eccellenti per quanto riguarda il riconoscimento di immagini.