Intelligenza artificiale

«Un gruppo iraniano ha utilizzato ChatGPT per cercare di influenzare le elezioni USA»

OpenAI ha bloccato gli account e afferma che l'operazione non sembra aver avuto un coinvolgimento significativo nel pubblico – «Continueremo a monitorare le attività per individuare ulteriori tentativi di violazione delle norme»
© CdT/Gabriele Putzu
Red. Online
17.08.2024 17:32

La società di intelligenza artificiale OpenAI ha reso noto ieri che un gruppo iraniano ha utilizzato il suo chatbot ChatGpt per generare contenuti da pubblicare su siti web e social media apparentemente volti a fomentare la polarizzazione tra gli elettori americani nelle elezioni presidenziali. I siti e gli account dei social media scoperti da OpenAI pubblicavano articoli e opinioni realizzati con l'aiuto di ChatGpt su vari argomenti, tra cui il conflitto a Gaza e i Giochi olimpici. Pubblicato anche materiale sulle elezioni presidenziali statunitensi, diffondendo disinformazione e scrivendo in modo critico su entrambi i candidati.

L'operazione, identificata come Storm-2035, ha utilizzato ChatGPT per generare contenuti incentrati su argomenti quali commenti sui candidati di entrambe le parti alle elezioni USA, il conflitto a Gaza e la presenza di Israele ai Giochi Olimpici, per poi condividerli tramite account di social media e siti web.

L'indagine condotta dall'azienda di intelligenza artificiale e supportata da Microsoft ha dimostrato che ChatGPT veniva utilizzato per generare articoli lunghi e commenti più brevi sui social media. Alcuni articoli e opinioni sono apparsi su siti che Microsoft, la scorsa settimana, ha affermato essere stati utilizzati dall'Iran per pubblicare fake news destinate ad amplificare la divisione politica negli Stati Uniti, afferma OpenAI.

La società di intelligenza artificiale ha bandito gli account ChatGpt associati agli sforzi iraniani e ha affermato che i post non hanno ottenuto ampia attenzione dagli utenti dei social media. La maggior parte dei post identificati sui social ha ricevuto pochi o nessun Like, condivisioni o commenti. OpenAI ha trovato «una dozzina» di account su X e uno su Instagram che ha collegato all'operazione iraniana e ha affermato che tutti sembravano essere stati rimossi dopo aver informato le due piattaforme.

Agli account è stato vietato l'utilizzo dei servizi di OpenAI e l'azienda continua a monitorare le attività per individuare ulteriori tentativi di violazione delle norme.

La battaglia Harris-Trump

All'inizio di agosto, un rapporto di Microsoft sulle minacce informatiche affermava che la rete iraniana Storm-2035, composta da quattro siti web camuffati da organi di informazione, stava coinvolgendo attivamente gruppi di elettori statunitensi agli estremi opposti dello spettro politico. L’impegno è stato costruito attraverso «messaggi polarizzanti su questioni come i candidati alla presidenza degli Stati Uniti, i diritti LGBTQ e il conflitto Israele-Hamas», si legge nel rapporto.

La popolarità dell'intelligenza artificiale generativa, come il chatbot online di OpenAI, ChatGPT, ha sollevato interrogativi su come tali tecnologie possano contribuire alla disinformazione online, soprattutto in un anno in cui si terranno importanti elezioni in tutto il mondo.

L'azienda di intelligenza artificiale ha dichiarato a maggio di aver sventato cinque operazioni di influenza segreta che miravano a utilizzare i suoi modelli per «attività ingannevoli» su Internet.

Intanto, OpenAI chiede agli utenti di non «innamorarsi» di ChatGPT

Il legame emotivo con l'intelligenza artificiale rappresenta una questione delicata e complessa che sta emergendo con sempre maggiore rilevanza. Da quando ChatGPT è stato introdotto, molte persone hanno iniziato a paragonare la loro esperienza con il film HER, che esplora l'idea di sviluppare una connessione affettiva con un'intelligenza artificiale.

OpenAI ha confermato che durante i test con GPT-4, molti utenti hanno mostrato segni di attaccamento emotivo al modello, utilizzando espressioni cariche di sentimenti come «Questo è il nostro ultimo giorno insieme». L'azienda evidenzia la necessità di condurre studi approfonditi per comprendere meglio le implicazioni di questi legami emotivi. È essenziale esaminare come diversi gruppi sociali, con storie e bisogni differenti, interagiscono con le IA. Inoltre, bisogna valutare gli effetti a lungo termine di tali relazioni, considerando che le intelligenze artificiali continuano a evolversi, diventando sempre più complesse e raffinate. Un'eccessiva dipendenza da un'intelligenza artificiale potrebbe portare a una diminuzione del bisogno di rapporti umani autentici, con potenziali ripercussioni sulla salute mentale e sul benessere sociale delle persone coinvolte.

In questo articolo: