L'appello

Bisogna impedire che l'intelligenza artificiale distrugga l'umanità

I leader di OpenAI, la società alle spalle di ChatGPT, ribadiscono l'importanza di una regolamentazione del settore per ridurre il cosiddetto «rischio esistenziale»
Immagine creata con Midjourney/OpenAI
Red. Online
24.05.2023 10:30

Intelligenza artificiale, a che punto siamo? Avevamo scritto dell'audizione al Congresso statunitense di Sam Altman, amministratore delegato di OpenAI, la start-up alle spalle di ChatGPT. Ora, i leader dell'azienda – il citato Altman, ma anche i co-fondatori Greg Brockman e Ilya Sutskever – hanno lanciato un appello tramite una nota stampa: i tre non solo sostengono una forte, fortissima regolamentazione delle cosiddette AI «superintelligenti», quelle generative diciamo, ma spingono affinché a vegliare sull'umanità vi sia l'equivalente dell'Agenzia internazionale per l'energia atomica. Perché il punto, hanno scritt, è proteggere il mondo da qualcosa che, potenzialmente, potrebbe distruggerlo. 

In particolare, OpenAI chiede a un futuro regolatore internazionale dell'intelligenza artificiale di lavorare sull'ispezione dei sistemi, sulla conformità agli standard di sicurezza e, soprattutto, sull'imposizione di restrizioni. Può sembrare fantascienza, invece è realtà. A maggior ragione se pensiamo a uno scenario simil War Games, con il supercomputer di turno in grado di lanciare testate nucleari. Uno scenario, questo, discusso proprio in Congresso. L'obiettivo, leggiamo, è ridurre il «rischio esistenziale».

«È concepibile che, entro i prossimi dieci anni, i sistemi di intelligenza artificiale supereranno il livello di competenza degli esperti nella maggior parte dei domini e svolgeranno la stessa attività produttiva di una delle più grandi aziende di oggi» hanno detto Altman, Brockman e Sutskever. «In termini di potenziali vantaggi e svantaggi, la superintelligenza sarà più potente di altre tecnologie con cui l'umanità ha dovuto confrontarsi in passato. Possiamo avere un futuro drammaticamente più prospero; ma dobbiamo gestire il rischio per arrivarci. Data la possibilità di un rischio esistenziale, non possiamo semplicemente essere reattivi».

A breve termine, il trio ha dunque chiesto «un certo grado di coordinamento» tra le aziende che lavorano sull'AI, al fine di garantire che lo sviluppo di modelli sempre più potenti si integri senza problemi (e derive, al di là dei riferimenti cinematografici) con la società. La priorità assoluta, insomma, va data alla sicurezza. Un coordinamento simile potrebbe avvenire attraverso un progetto guidato dal governo, ad esempio, o tramite un contratto collettivo per limitare la crescita della capacità dell'intelligenza artificiale.

I ricercatori hanno avvertito per decenni dei potenziali rischi della superintelligenza, ma con l'accelerazione dello sviluppo dell'AI, beh, tali rischi sono diventati decisamente più concreti. Il Center for AI Safety (CAIS), con sede negli Stati Uniti, da tempo al lavoro per «ridurre i rischi su scala sociale derivanti dall'intelligenza artificiale», ha descritto otto categorie di rischio «catastrofico» ed «esistenziale» che lo sviluppo dell'IA potrebbe comportare.

Mentre alcuni temono che una potente AI distrugga completamente l'umanità, accidentalmente o di proposito, il CAIS ha descritto in dettaglio anche altri danni. Un mondo in cui ai sistemi di intelligenza artificiale viene consegnato volontariamente sempre più lavoro, per dire, potrebbe portare l'umanità a «perdere la capacità di autogovernarsi e diventare completamente dipendente dalle macchine». Si parla, in questo caso, di «indebolimento». E ancora: un piccolo gruppo di persone che controllano sistemi potenti potrebbe «rendere l'AI una forza centralizzante», portando a un «blocco del valore» o, meglio, a un eterno sistema di caste tra governati e governanti.

I leader di OpenAI hanno ribadito che questi rischi significano una cosa soltanto. Ovvero, che «le persone in tutto il mondo dovrebbero decidere democraticamente i limiti e le impostazioni predefinite per i sistemi di intelligenza artificiale». Detto ciò, i tre hanno ammesso di non sapere ancora «come progettare un tale meccanismo». Guai, però, lasciare che lo sviluppo di sistemi sempre più potenti avvenga in maniera incontrollata. «Crediamo che questo sviluppo porterà a un mondo molto migliore di quello che possiamo immaginare oggi (ne stiamo già vedendo i primi esempi in aree come l'istruzione, il lavoro creativo e la produttività personale)» hanno scritto nella nota, spiegando infine perché, nonostante i rischi, è bene che questo sviluppo prosegua. «Fermare tutto ciò richiederebbe qualcosa come un regime di sorveglianza globale, e anche questo non è garantito che funzioni».

In questo articolo:
Correlati