E se l'intelligenza artificiale lanciasse una testata nucleare?
Regolare l’intelligenza artificiale, in questi ultimi mesi, sta diventando una priorità (quasi) assoluta. Ovunque nel mondo e, nello specifico, in America. Non si tratta soltanto di evitare lo scenario apocalittico alla Terminator, il cosiddetto giorno del giudizio, con macchine talmente potenti e sviluppate da sottomettere l’umanità, ma di stroncare sul nascere una simile eventualità. Più facile a dirsi che a farsi, evidentemente.
Decida, sempre, l'uomo
Un gruppo bipartisan, al riguardo, al Congresso sta discutendo l’introduzione del cosiddetto Block Nuclear Launch by Autonomous Artificial Intelligence Act. Tradotto dal politichese, tanto i repubblicani quanto i democratici intendono rafforzare l’attuale legislazione. Evitando, leggiamo, che i fondi federali vengano convogliati per modificare la politica sul coinvolgimento umano nel lancio di armi nucleari. Lo sforzo, coordinato, sta producendo effetti sia alla Camera sia al Senato, dove verrà presentato un disegno di legge complementare. «Sappiamo che il Dipartimento della Difesa ha una classificazione di armi autonome che possono essere lanciate automaticamente» ha raccontato a Semafor il democratico Ted Lieu, membro della Camera per lo Stato della California dal 2015. L’idea, appunto, è tradurre in legge un timore più o meno fondato: «Non importa quanto avanzata sia l’AI, non lasceremo mai che lanci automaticamente un’arma nucleare».
Come in War Games?
Per quanto uno scenario simile possa sembrare confinato a un certo cinema o, ancora, a un futuro tanto, troppo ipotetico, il gruppo bipartisan non è il primo a sollevare la questione. La National Security Commission of Artificial Intelligence, autorizzata dal Congresso a consigliare il governo su questo tipo di questioni, ha inserito un concetto simile nel suo rapporto: gli Stati Uniti devono affermare «chiaramente e pubblicamente» che solo e soltanto gli esseri umani sono autorizzati all’impiego di armi nucleari. Una questione di sicurezza nazionale, verrebbe da dire, senza necessariamente scomodare – rimanendo al cinema – War Games, film del 1983 in cui un ragazzino, inconsapevolmente, rischia di scatenare una guerra termonucleare mettendosi a giocare con un supercomputer del NORAD.
L'invito rivolto ai professori
Il Dipartimento della Difesa, va detto, ha già affrontato il tema. Ora, però, sembrerebbe rafforzarsi il desiderio di trovare una formula codificata che, in un certo senso, chiarisca il ruolo dell’uomo nel prendere decisioni sull’eventuale lancio di armi nucleari. Il Congresso, insomma, non scherza. A maggior ragione se pensiamo che ChatGPT e simili continuano a far parlare (e discutere) tanto per i progressi compiuti quanto per le possibili derive.
Va letto in quest’ottica, senza dubbio, il briefing bipartisan convocato dallo speaker della Camera Kevin McCarthy e dal leader della minoranza Hakeem Jeffries. Gli invitati? I professori del MIT, fra i massimi esperti di intelligenza artificiale.
Il disegno di legge che ha in mente il Congresso, ha aggiunto Lieu, rientra in un discorso di lungimiranza: «Stiamo ancora cercando il modo migliore per regolamentare l’industria in generale, ma quando si tratta di guerra nucleare, non possiamo aspettare. Gli esseri umani devono sempre essere una parte centrale del processo di lancio di testate».
Che cosa dicono gli esperti
Gli esperti del settore, chi sorridendo e chi quasi indignandosi, temono che l’ossessione stia superando – e pure di tanto – il buonsenso. Il collega Giacomo Butti, mesi fa, ne aveva parlato con Andrea Rizzoli, direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale: più che lo scenario alla Terminator, il rischio a suo dire è legato ai dati. Un rischio che, in parte, ChatGPT ha confermato. «Il pericolo che si corre nello sviluppo di potenti AI riguarda tematiche già affrontate in passato con Google, Facebook e compagnie simili» aveva detto Rizzoli. «Parliamo dell’utilizzo di dati in maniera non regolata e chiusa. Un utilizzo che non rende nulla alla comunità. Corriamo il rischio di vederci sottrarre ogni privacy, violare la nostra sfera personale, ed essere impotenti al riguardo. Se tutto viene lasciato nelle mani delle logiche di mercato, un uso delle AI non attento ai principi di protezione della sfera privata può portare a gravi distorsioni».
«Il cielo non sta cadendo e Skynet non è all’orizzonte» aveva invece detto, il mese scorso, Daniel Castro, direttore del Center for Data Innovation presso la Information Technology and Innovation Foundation, finanziata dall’industria, in una dichiarazione in cui criticava le richieste di una moratoria sullo sviluppo dell’IA. Skynet, citiamo da Wikipedia per chi mastica poco di cinema, è un’immaginaria rete di supercomputer descritta nel ciclo cinematografico di Terminator come antagonista principale della serie.