Il caso

L'IA di Elon Musk diffonde fake news sull'attentato a Donald Trump

Il Wall Street Journal ha raccolto diversi casi di imprecisioni citando le decine di teorie complottiste che in settimana dopo l'attentato a Trump hanno alimentato Grok
©Kirsty Wigglesworth
Ats
18.07.2024 16:54

Elon Musk spinge sull'Intelligenza artificiale per competere con gli altri big della tecnologia e per scardinare il sistema dell'informazione, ma il suo chatbot alla prima occasione di rilievo come l'attentato a Donald Trump ha diffuso notizie false. Il proprietario di Tesla è uno dei principali supporter economici del tycoon tanto da donargli 45 milioni di dollari al mese per la campagna elettorale.

Il Wall Street Journal ha raccolto diversi casi di imprecisioni citando le decine di teorie complottiste che in settimana dopo l'attentato a Trump hanno alimentato Grok. Ad esempio, ha identificato Kamala Harris come soggetto della sparatoria e la provenienza di estrema sinistra del presunto attentatore. Un altro falso titolo del chatbot è che ad essere ucciso al comizio di Trump è stato l'attore di Mamma ho perso l'aereo 2. Il tutto a causa di un cammeo dell'ex presidente USA nel film del 1992. Non è la prima volta che Grok diffonde disinformazione: nei mesi scorsi ha generato fake news in occasione dell'eclissi solare e ha condiviso una notizia falsa sul lancio di missili contro Israele da parte dell'Iran.

Grok è un software di Intelligenza artificiale lanciato da Musk lo scorso novembre. È disponibile solo per gli utenti premium di X, l'ex Twitter. Pagando un abbonamento questi utenti possono interagire con il chatbot ponendo domande o accedendo a funzionalità esclusive. Tra queste c'è X Stories che crea sommari con titolo e sottotitolo attingendo dagli argomenti di tendenza sul social X. La criticità di Grok sta proprio in X Stories, cioè nel fornire riassunti che sono un mix dei post pubblicati da testate internazionali e dei commenti di tutti gli utenti, privilegiando quelli con maggior seguito. Se tra questi ci sono personalità discusse che ad esempio condividono argomentazioni non verificate, il chatbot finisce per generare e amplificare le bufale.

Grok non è l'unico strumento di Intelligenza artificiale a commettere errori del genere, ne hanno fatti diversi anche Google e OpenAI. Lo scorso giugno Musk ha criticato il sistema informativo odierno, definendolo lento e impreparato, ipotizzando la possibilità che i social con l'IA a bordo diventino una fonte autorevole di notizie. «Quello che stiamo facendo sulla piattaforma X è aggregare. Usiamo l'intelligenza artificiale per riassumere l'input proveniente da milioni di fonti - aveva detto Musk - Penso che questo sarà davvero il nuovo modello di notizie». Il risultato però, al momento, è quello sotto gli occhi di tutti.

In questo articolo: