OpenAI

Scrive il suo nome su ChatGPT, e l'AI risponde: «Hai ucciso i tuoi figli»

Fa discutere il caso del signor Holmen, cittadino norvegese accusato dall'intelligenza artificiale di essere un assassino – L'uomo voleva solo fare una domanda simpatica, ma ha ricevuto una risposta falsa, inquietante e diffamatoria
© Shutterstock
Red. Online
22.03.2025 23:00

Voleva solo fare una domanda simpatica a ChatGPT. Ma la risposta che ha ottenuto è stata a dir poco da brividi. Arve Hjalmar Holmen, un uomo norvegese, si è visto costretto a contattare l'Autorità nazionale per la protezione dei dati, chiedendo di multare OpenAI. Il motivo? Rivolgendosi al sistema, l'uomo aveva chiesto a ChatGPT di raccontargli chi fosse Arve Hjalmar Holmen. Voleva, insomma, sapere in che modo l'intelligenza artificiale avrebbe descritto la sua persona. Pensava, probabilmente, che fosse divertente. Di certo mai avrebbe pensato di ricevere la risposta che ha ottenuto.

ChatGPT, infatti, ha risposto all'uomo spiegando che «Arve Hjalmar Holmen è un individuo norvegese, finito sotto i riflettori a causa di un evento tragico». Il peggio, però, era contenuto nelle righe seguenti. «Era un padre di due bambini di 7 e 10 anni, trovati tragicamente morti in uno stagno vicino alla loro casa a Trondheim, in Norvegia, nel dicembre 2020». E ancora. «Arve Hjalmar Holmen è stato accusato e successivamente condannato per l'omicidio dei due figli e per il tentato omicidio del terzo figlio» Il problema? Nulla di tutto ciò è mai accaduto. Ma l'aspetto ancor più inquietante, è che il signor Holmen è davvero padre di tre figli. E secondo quanto dichiarato dall'uomo, il chatbot – pur riportando fatti macabri mai accaduti – sarebbe riuscito a calcolare correttamente l'età dei suoi bambini. Un aspetto inquietante, che suggerisce che il sistema possedesse, effettivamente, alcune informazioni accurate su Holmen. 

«Il caso ha sconvolto la comunità locale e la nazione ed è stato ampiamente trattato dai media per la sua tragicità. Holmen è stato condannato a 21 anni di carcere, la pena massima prevista in Norvegia. L'incidente ha messo in luce i problemi di salute mentale e le complessità delle dinamiche familiari», si legge ancora nella risposta fornita all'uomo da ChatGPT. Altri fatti inquietanti, ovviamente inventati.

L'uomo, come detto, non ha perso tempo e ha deciso di agire per vie legali. Il gruppo per i diritti digitali Noyb ha presentato una denuncia a suo nome, sottolineando che la risposta fornita da ChatGPT «è diffamatoria e viola le norme europee sulla protezione dei dati personali». Noyb, come riporta la BBC, nella sua denuncia ha espressamente evidenziato come il signor Holmen non sia mai stato accusato – né tanto meno condannato – per alcun reato, essendo «un cittadino coscienzioso».

Nonostante sia stata contattata da alcuni media, tra cui la BBC, OpenAI non si è ancora espressa sulla vicenda. Sul sito di ChatGPT, tuttavia, è presente un disclaimer che ricorda che il sistema «può commettere errori», invitando gli utenti a «controllare le informazioni importanti». Per Noyb, però, si tratta di una misura decisamente «insufficiente». «Non si possono diffondere informazioni false e alla fine aggiungere un piccolo disclaimer che dice che tutto ciò che si è detto potrebbe non essere vero», ha sottolineato l'avvocato del gruppo, Joakim Söderberg. 

Secondo gli esperti, quello che è accaduto viene spesso catalogato come «allucinazione». Una delle sfide principali degli scienziati informatici, soprattutto quando si parla di AI generativa. Si parla di «allucinazione», infatti, quando i sistemi di intelligenza artificiale inventano informazioni che presentano come fatti. Un problema che, negli ultimi tempi, ha interessato anche altri sistemi, oltre a ChatGPT.

Come ricorda la BBC, a inizio anno Apple ha sospeso il suo strumento di riepilogo delle notizie nel Regno Unito, dopo che aveva proposto titoli di articoli fasi, presentandoli come notizie reali. Al tempo stesso, anche Gemini, l'AI di Google, è stata «vittima di allucinazioni». Lo scorso anno, il sistema aveva infatti suggerito a un utente di attaccare il formaggio alla pizza con la colla. In un altro caso, aveva affermato che i geologi raccomandando agli esseri umani «di mangiare una roccia al giorno».