Il Nobel e l'intelligenza artificiale: «Ma l’algoritmo non ha una coscienza»
«Non è semplicissimo spiegare che cosa i due vincitori del Nobel abbiano fatto nel campo dell’intelligenza artificiale (IA). Diciamo che il lavoro di Geoffrey Hinton è stato fondamentale soprattutto per poter addestrare le reti neurali, dalle più semplici alle più avanzate, a svolgere i propri compiti; mentre John Hopfield ha sviluppato una particolare architettura di rete neurale».
Andrea Emilio Rizzoli, direttore dell’Istituto Dalle Molle USI-SUPSI di Lugano, si occupa quotidianamente di IA. Ma è abituato a non dare per scontate informazioni che al grande pubblico possono apparire ostiche. Commentando con il Corriere del Ticino l’assegnazione del Nobel per la Fisica, non tralascia di dettagliare alcune note essenziali. Ad esempio, che cosa sono le reti neurali, l’invenzione che ha permesso a Hinton e Hopfield di vincere il Premio.
Tecnicamente, dice Rizzoli, sono «insiemi di nodi e archi interconnessi in grado di replicare in una determinata maniera la struttura del nostro cervello, dove abbiamo neuroni collegati da assoni. La struttura biologica è stata ripetuta in maniera astratta, matematica, quindi rappresentabile sui calcolatori. Anche se la parte più difficile è stata addestrare, insegnare a queste reti neurali a eseguire determinati compiti. Ad esempio: il riconoscimento di un’immagine o di un oggetto, o la predizione di un valore all’interno di una sequenza».
I potenziali abusi
Hinton è andato oltre nella sua ricerca. Lavorando anche alla capacità del computer di auto-apprendere. Per poi paradossalmente spaventarsi dei suoi stessi risultati, e giungere alla conclusione di doversi fermare. Perché? «Il fatto che Hinton si sia spaventato è stata per me un po’ una sorpresa - risponde Rizzoli - non so che cosa lui abbia voluto vedere nello sviluppo dell’IA moderna; forse ha voluto immedesimarsi nella visione più catastrofista, che attribuisce all’IA capacità che essa non ha. L’intelligenza artificiale moderna non ha coscienza, non è in grado di prendere decisioni in maniera autonoma e quindi scientemente, né di decidere di agire per i propri fini, magari danneggiando i nostri interessi».
Se vuoi approfondire, ascolta il podcast sull'argomento
Tuttavia, aggiunge il direttore dell’Istituto Dalle Molle, «Hinton ha sicuramente visto giusto nel capire che c’è un grosso potenziale di abuso dell’IA e delle tecniche di intelligenza artificiale per realizzare, ad esempio, falsificazioni di dati. Se si delega a determinati tipi di intelligenza artificiale generativa decisioni critiche, non basate su una conoscenza causale e fattuale del mondo, ma semplicemente su correlazioni statistiche, si corrono rischi grossissimi. Forse Hinton, prevedendo scenari a mio avviso un po’ troppo futuristici, ha comunque voluto metterci in guardia verso questo tipo di abusi, di rischi, che esistono».
I possibili sviluppi
In ogni caso, l’assegnazione del Nobel a questi due scienziati alimenta ancora di più il dibattito sull’IA, sul suo utilizzo, sul suo potenziale sviluppo. Per chi si occupa del tema a tempo pieno, c’è una pressione crescente e una responsabilità ancora maggiore.
Responsabilità che il professor Rizzoli legge in chiave «positiva», riferendola ad esempio «all’impatto che l’IA potrebbe avere sulla ricerca scientifica, sulla fisica, sulla chimica, sulla matematica teorica. Alcune scoperte fondamentali in biochimica sono state raggiunte grazie a un programma come AlphaFold basato su algoritmi di intelligenza artificiale. Sono ancora primi passi, ma le aspettative su quello che può fare l’intelligenza artificiale in determinati settori sono davvero molto grandi».
Con una sottolineatura, dice ancora Rizzoli: «Non parliamo di un’intelligenza simile alla nostra che ci permette adesso di parlare di questo argomento, e dopo di fare una partita a ping pong o di cucinare un piatto. No: gli algoritmi di intelligenza artificiale sono molto specializzati a far bene una cosa specifica. E sono questi gli algoritmi che interessano di più. Dal mio punto di vista, se devo progettare un sistema di diagnosi medica, a me interessa che quel sistema faccia bene la diagnosi, non che sappia anche discutere degli ultimi risultati del campionato di hockey».
Valore aggiunto per la scienza
Nell’eterna guerra aperta tra apocalittici e integrati si insinua così un ulteriore argomento di discussione. Moltissimi, soprattutto negli ultimi mesi, sulla spinta in particolare delle applicazioni installate sui modelli più recenti di smartphone, si sono appassionati all’intelligenza artificiale generativa, per intendersi a ChatGPT e strumenti simili. Altri, invece, hanno gridato al pericolo della macchina che sovrasta l’uomo, fino a dominarlo. Il «vero nocciolo della ricerca», insiste però il direttore dell’Istituto Dalle Molle, è un altro: l’intelligenza artificiale «focalizzata».
«Oggi si distingue fra intelligenza artificiale generale e intelligenza artificiale narrow, focalizzata. Il segnale che ha voluto dare il comitato che assegna il Premio Nobel, io credo, è stato proprio questo: puntare sul valore aggiunto, per la scienza, dell’intelligenza artificiale».