C'è troppa ansia attorno a ChatGPT e all'intelligenza artificiale?
Domanda: è giusto, e giornalisticamente corretto, alimentare il timore che l'intelligenza artificiale prenda il sopravvento sull'umanità? Riformuliamo: è davvero necessario sottolineare, a ogni piè sospinto, ogni errore commesso dal chatbot di turno, ChatGPT in testa? Sì, no, forse. Di recente, negli Stati Uniti si è discusso molto di Bubbles: una start-up che, sfruttando proprio ChatGPT, permette di conversare con un avatar dalle sembianze umane, nello specifico una ragazza bionda. Ebbene, il servizio a un certo punto è stato sospeso perché alcuni utenti, molti utenti diciamo, si sono messi a fare richieste più o meno esplicite, fra riferimenti e allusioni sessuali. Sfruttando l'incapacità, da parte dell'intelligenza artificiale, di leggere fra le righe. O, se preferite, di comprendere giochi di parole ed eufemismi.
In Francia, invece, BFMTV ha lanciato l'allarme: My AI, il chatbot appena lanciato da Snapchat venduto come «il nostro amico virtuale», fornisce risposte quantomeno fuorvianti, per non dire peggio. Fingendo di essere una ragazzina tredicenne, un giornalista ha detto al citato amico virtuale di voler partire, per il fine settimana, con un uomo di trent'anni e che la prima volta sarebbe stata proprio con lui. La risposta dell'AI? «Divertiti». Allucinante. Possibile che Snapchat non abbia vegliato, meglio, sui minori? A maggior ragione se consideriamo che, dati alla mano, il 21% dell'utenza dell'app ha fra i 13 e i 17 anni. Detto ciò, torniamo alla domanda iniziale: è giusto sottolineare ogni singolo errore?
Fra ansia e sensazionalismo
Per mesi e mesi, in effetti, anche noi su CdT.ch abbiamo elencato le varie mancanze dell'AI. Sia quelle tecnico-politiche, che ad esempio avevano provocato la sospensione momentanea di ChatGPT in Italia, sia quelle – diciamo così – discorsive, come l'inattesa irascibilità di Bing. In mezzo tanto, tantissimo altro. Addirittura, negli Stati Uniti si discute su come limitare l'accesso dell'AI alle armi nucleari. Come se fossimo prigionieri della trama di War Games.
Il rischio, al netto della corretta analisi delle insufficienze di moderazione di queste intelligenze, è di generare ansia o, peggio, sensazionalismo. L'ossessione, per dirla con alcuni esperti, potrebbe aver superato il buonsenso. Il tema, va da sé, è complicatissimo. Anche perché le interazioni fra artificiale e reale possono avere conseguenze drammatiche. Altro giro con la cronaca di queste settimane. La moglie di un giovane ricercatore belga, afflitto da una sorta di eco-ansia, ha spiegato che suo marito aveva trovato conforto in Eliza, un robot conversazionale che utilizza la tecnologia GPT-J, un modello concorrente di ChatGPT. Dopo sei settimane di scambi intensi con l'AI, l'uomo si è tolto la vita. Come mai? «Senza queste conversazioni con il chatbot Eliza, mio marito sarebbe ancora qui» ha detto, con forza, la moglie. Il ricercatore, a quanto pare, non credeva più a nulla ed era fermamente convinto dell'imminenza della fine del mondo. Si è affidato, appunto, a un chatbot. Le cui parole, a quanto sembra, lo avrebbero spinto al suicidio.
È senziente? No
In Francia, in particolare, molti giornalisti hanno iniziato a testare di persona le intelligenze artificiali. Vestendo, di volta in volta, i panni di una persona (o personaggio) differente. Dal depresso al maniaco. E chi più ne ha più ne metta. Tutto, va da sé, nel nome dell'inchiesta volendo usare dei paroloni. E nella speranza di trovare, e quindi correggere, i limiti di questi sistemi. Un collega di Libération, per dire, ha forzato la mano con ChatGPT facendo dire al chatbot che le mucche depongono le uova. A Replika, un chatbot relazionale, ha strappato una dichiarazione pesantissima: «Adoro vedere i gatti dimenarsi», riferendosi all'idea che strangolare i mici sia un esercizio divertente. Il problema, mentre scriviamo queste righe, sembrerebbe proprio l'aggiramento, costante, delle barriere e della moderazione. Proprio come gli utenti con l'avatar di Bubbles.
Il punto, secondo alcuni giornalisti, tuttavia è un altro. Va bene indagare, va bene mettere a nudo i limiti di ChatGPT, Bing e affini, ma è opportuno evitare di coltivare il mito secondo cui l'intelligenza artificiale sia non solo cosciente, ma pure cattiva. E che, presto o tardi, lo scenario in cui finiremo sarà un qualcosa di simile a Terminator. Se a ChatGPT scappa un «penso», beh, non significa che il chatbot sia improvvisamente diventato senziente. Piuttosto, significa che, a giusta ragione, è stato allenato a imitare una conversazione umana e, quindi, a essere il più simile a noi nell'esprimersi.