John J. Hopfield e Geoffrey E. Hinton hanno vinto il Premio Nobel per la Fisica 2024 "per le scoperte e le invenzioni fondamentali che consentono l'apprendimento automatico con reti neurali artificiali". Abbiamo chiesto un commento ai professori di Fisica teorica Achille Giacometti e Guido Caldarelli, e di Informatica, Marcello Pelillo.
"A tutti noi è capitato di cercare di ricordare una parola e ci venivano solo le prime o le ultime lettere, fino a quando improvvisamente la nebbia si dissipava e la parola magicamente si formava nel nostro cervello. Questo succede perché il nostro cervello funziona con memoria associativa, cioè un’immagine associata alla parola ci permette di ricordare una parola o un numero che altrimenti non saremmo in grado di ricordare.
Il cervello è formato da neuroni e sinapsi che formano una rete simile a quella aerea dove i neuroni sono gli aeroporti e le sinapsi sono le rotte aeree. Tale rete però non è statica ma cambia dinamicamente con delle rotte che vengono dismesse ed altre che vengono potenziate. Tale flessibilità permette un comportamento globale complesso che non è la somma dei singoli comportamenti neuronali, e sta alla base della memoria associativa. Quando scriviamo velocemente una parola sul cellulare e sbagliamo la sintassi, la maggior parte delle volte il cellulare è in grado di correggerci e scrivere la parola giusta, e lo fa esattamente nello stesso modo del cervello, cioè usando la memoria associativa. Questo è uno dei principi su cui si fonda l’Intelligenza Artificiale.
Il premio Nobel 2024 per la Fisica è stato assegnato a John Hopfield e Geoffrey Hinton per avere gettato le basi teoriche (Hopfield) e per averle trasformate in uno strumento utilizzabile in pratica e scalabile ad applicazioni tecnologiche (Hinton). Ma cosa c’entra la Fisica con il cervello e con l’Intelligenza Artificiale? Non è certo un caso che Hopfield venga dalla Fisica Teorica della materia, e più in particolare sia esperto di Meccanica Statistica. Tanto è vero che il “modello di Hopfield” gli è stato ispirato dalla sua conoscenza del modello di Ising che serve a spiegare il fenomeno del ferromagnetismo, cioè di come un magnete acquista una magnetizzazione permanente anche in assenza di campo magnetico esterno applicato. Allo stesso modo, la “Macchina di Boltzmann”, introdotta da Hinton per riconoscere elementi caratteristici in un insieme di dati, si ispira all’equazione di Boltzmann che è uno dei capisaldi della Meccanica Statistica (spiega, per esempio, la freccia del tempo).
I moderni sistemi di Intelligenza Artificiale si basano su modelli computazionali ispirati alla struttura del cervello (le cosiddette “reti neurali”) e “imparano” grazie ad un algoritmo (il “back-propagation”, o sue varianti) introdotto proprio da Hinton negli anni ’80. Il processo con cui la rete risolve problemi difficili è favorito dalla possibilità di “imparare” da esempi noti, così come fa il nostro cervello, e questo approccio è letteralmente esploso una decina di anni fa con la disponibilità di banche dati sempre più ricche ed accurate da cui poter apprendere e ad una potenza di calcolo crescente. La disponibilità di questi algoritmi sta rivoluzionando le nostre vite, creando anche apprensione sulle sue potenziali applicazioni e sull’impatto sociale, ed è ormai difficile trovare un campo applicativo dove, in una forma o nell’altra, non si faccia uso di queste tecniche.
Il premio Nobel del 2024 delinea chiaramente il contributo della Fisica Statistica alla comprensione di questo campo di ricerca e alla creazione di nuove tecnologie digitali. L’Intelligenza Artificiale, nata negli anni ’50 come branca marginale dell’Informatica, ha rapidamente attirato l’attenzione di ricercatori di altre aree scientifiche diventando un settore altamente interdisciplinare, con contaminazioni che vengono, oltre che dalla Fisica, dalle Neuroscienze, dalla Psicologia, dalla Matematica e, non ultima, dalla Filosofia.
Un bell’esempio di questa collaborazione, in questo caso anche estesa ai biochimici, è dato dai recenti successi del team di Deep Mind di Google, formato appunto da un team fortemente interdisciplinare, in cui l’uso dell’Intelligenza Artificiale combinata con la presenza di banche dati molto ricche e ben organizzate, ha permesso di risolvere il problema, vecchio di circa 50 anni, di predire la struttura nativa di una proteina nota la sua sequenza.
Ca’ Foscari ha una lunga tradizione nel campo dell’Intelligenza Artificiale, sia in ambito didattico che scientifico, che risale alle metà degli anni ’90. In quegli anni, quando era ancora una disciplina di nicchia e guardata con sospetto, ha avuto l’intuizione di istituire il primo insegnamento di Intelligenza Artificiale, nell’ambito del Corso di Laurea in Informatica da poco istituito, e offre da tempo un intero curriculum magistrale sull’argomento che attrae studenti da diverse parti del mondo. L’approccio interdisciplinare che caratterizza l’Intelligenza Artificiale è ben radicato nel nostro Ateneo e viene trasmesso tramite altri corsi che stanno a cavallo tra discipline diverse, quali ad esempio l’Ingegneria Fisica".
Guido Caldarelli, Achille Giacometti, Marcello Pelillo