I software di verifica delle immagini IA stanno creando disinformazione su Israele e Palestina
Lo Stato di Israele è stato accusato da alcuni utenti della Rete di aver diffuso sui social media fotografie create con l'intelligenza artificiale (IA) per fare propaganda contro il gruppo palestinese Hamas. La falsificazione dei contenuti fotografici sarebbe stata scoperta grazie a degli strumenti per rilevare se un’immagine è reale o è stata creata digitalmente.
Il problema è che questi strumenti non sono sempre affidabili e, come è successo in questo caso, il risultato sbagliato della verifica porta alla diffusione di disinformazione.
Il caso di Israele
Il 12 ottobre sul proprio account ufficiale di X lo Stato di Israele ha pubblicato alcune immagini di cadaveri di bambini carbonizzati come prova delle atrocità commesse da Hamas, testimoniate da varie testate internazionali. Dopo la pubblicazione, sui social network si è diffusa la notizia che quelle immagini fossero state in realtà create con l'intelligenza artificiale, come dimostrato da «AI or Not» di Optic, software per verificare l’origine di un contenuto fotografico.
Lo stesso giorno su 4chan, un forum creato nel 2003 e diventato negli anni un massiccio aggregatore di troll, meme e sottoculture digitali, è stata pubblicata la presunta «foto originale» che sarebbe stata poi modificata digitalmente dallo Stato di Israele. In base a quanto pubblicato sul forum, il soggetto originario dell’immagine non è un corpo carbonizzato di un bambino, ma un cucciolo di cane avvolto da un drappo bianco.
In realtà, i contenuti pubblicati da Israele sono reali, e non c’è alcun segno che faccia pensare a un intervento dell’intelligenza artificiale.
L’IA e il problema degli strumenti di verifica delle immagini
Contattato dal magazine statunitense 404, Hany Farid, professore all’Università di Berkeley ed esperto di immagini manipolate digitalmente, ha spiegato che «la coerenza strutturale, l’accuratezza delle ombre, la mancanza di artefatti che tendiamo a vedere nell’IA mi portano a credere che non sia nemmeno parzialmente generata da IA». Hadley ha infatti sottolineato che i software per creare immagini IA non sono ancora in grado di creare una scena così dettagliata e precisa come quella raffigurata dalla fotografia pubblicata da Israele.
Quella a essere stata modificata, invece, è l’immagine pubblicata su 4chan in cui è raffigurato il cane, come ha ammesso lo stesso autore del post.
Per quanto riguarda il risultato ottenuto dalla verifica sottoposta a «IA or Not», bisogna sottolineare che attualmente questi tipi di software non sono in grado di stabilire con certezza se una foto sia stata creata con l'intelligenza artificiale. La precisione dei risultati inizia a diminuire non solo quando l’immagine ha una risoluzione bassa, ma anche quando non risponde alle caratteristiche su cui il sistema è stato addestrato. I risultati dell’analisi non sono dunque sempre attendibili, e possono veicolare e alimentare disinformazione.