L'intervista

«Sull'intelligenza artificiale i media, spesso, hanno creato panico morale»

Ospite dell'AI Week a Lugano, Philip Di Salvo dell'Università di San Gallo affronta il tema a 360 gradi: «Il problema non è la tecnologia in sé ma l'uso che se ne fa, basti pensare a Elon Musk»
© kovop
Marcello Pelizzari
03.12.2024 11:15

L’appuntamento è fissato per oggi, alle 18.40, all’Asilo Ciani di Lugano. Il panel, organizzato nell’ambito dell’AI Week, è di quelli importanti. A cominciare dal titolo. Intelligenza artificiale e democrazia: tra formazione e informazione. Attualità e scenari futuri, insomma. Vi parteciperanno Bruno Giussani, Silvia Quarteroni e Philip Di Salvo, ricercatore post-doc dell’Università di San Gallo. Con il quale, a poche ore dal confronto, abbiamo scambiato quattro chiacchiere.

Dottor Di Salvo, partiamo a bomba: come potremmo definire, oggi, con l’incedere dell’intelligenza artificiale e, parallelamente, della disinformazione, il nostro rapporto con ciò che consumiamo online e la democrazia?
«Credo, parlando di disinformazione e misinformazione online, che innanzitutto bisogna fare un minimo di contestualizzazione. Senza dubbio, parliamo di fenomeni molto forti al momento. Fenomeni che, proprio per questo, non vanno sottovalutati. Detto questo, sui media troppo spesso si fanno discorsi esasperati sul tema. Dipingendo, di riflesso, un quadro più grave di quello che, in effetti, vediamo».

In che senso, scusi?
«Nel senso che non c’è grande evidenza, anzi non ce n’è quasi nessuna, circa l’impatto della disinformazione online sulle scelte elettorali delle persone o su determinati risultati alle urne. Insomma, i media cadono in quello che la terminologia scientifica chiama panico morale. Si definisce panico morale l’esasperazione di un problema oltre la sua effettiva portata. Il che, attenzione, non significa non riconoscere la disinformazione: c’è, esiste ed è certamente un aspetto cui prestare attenzione».

Significa che, come media, abbiamo letto e interpretato male alcuni segnali?
«A lungo, sicuramente, i media hanno cercato di trovare spiegazioni a fenomeni complessi, come il referendum sulla Brexit o la prima elezione di Donald Trump, nel 2016, attraverso la disinformazione online. Lo stesso dicasi per le presidenziali americane di novembre. Tuttavia, per quanto esista un problema di qualità dell’informazione, un contenuto falso o fuorviante da solo non può spiegare determinati risultati».

L’intelligenza artificiale, allora, ora come ora non ha avuto alcun ruolo né può averlo…
«Si diceva, in effetti, che l’intelligenza artificiale avrebbe potuto influenzare il voto americano. Ma si tratta di esagerazioni. A tratti anche mitologiche».

Vuol dire, rovesciando la questione, che, come consumatori di contenuti online, siamo diventati più intelligenti? All’epoca, quando l’immagine del Papa con il Mon Clero divenne virale in molti ci cascarono.
«Rispetto a quella foto, che risale oramai a quasi due anni fa, la qualità dei contenuti generati dall’intelligenza artificiale, pensando a video e immagini, non è migliorata in modo significativo. Le famose foto di Donald Trump con cani e gatti in braccio, in occasione delle ultime presidenziali, erano chiaramente poco credibili. Dubito che qualcuno le abbia prese per vere. Anche perché erano a un passo dall’essere dei cartoni animati. Ma un discorso analogo si può fare per i cosiddetti deepfake, che a detta di molti avrebbero potuto ingannare milioni di utenti. Quasi tutti i video di questo genere circolati online, negli ultimi anni, sono stati immediatamente riconosciuti come falsi. Perciò, ecco, l’intelligenza artificiale offre indubbiamente delle possibilità per aumentare la portata della disinformazione e della misinformazione online, ma ora come ora non si sono viste grandi ondate di contenuti generati con l’AI. O meglio, la fattura di questi contenuti è ancora molto grossolana e non abbastanza fine per rappresentare un pericolo su larga scala».

La domanda è proprio questa: strumenti del genere diventeranno, entro pochi anni, problematici visto il loro livello di credibilità? Io, al riguardo, mi preoccuperei maggiormente dei deepfake audio, attraverso cui è possibile imitare la voce di un personaggio pubblico  

Ci è stato detto, però, che queste tecnologie migliorano di minuto in minuto. Quindi?
«La domanda è proprio questa: strumenti del genere diventeranno, entro pochi anni, problematici visto il loro livello di credibilità? Io, al riguardo, mi preoccuperei maggiormente dei deepfake audio, attraverso cui è possibile imitare la voce di un personaggio pubblico. Un articolo del Washington Post ha confrontato le voci reali dei due candidati alle presidenziali del 2024 e quelle create con l’intelligenza artificiale. In alcuni casi, riconoscere quale delle due versioni fosse la voce originale era tutto fuorché un esercizio immediato. Il che mi porta a pensare che sia più facile veicolare disinformazione con gli audio».

C’è modo di intervenire, a livello di regolamentazione, e di farlo prima che sia troppo tardi?
«Non sono un esperto di regolamentazione, ma negli ultimi due anni in America abbiamo assistito a qualcosa senza precedenti: l’acquisizione di Twitter, ora X, da parte di un miliardario, Elon Musk, e la trasformazione della piattaforma in un canale di propaganda trumpiana. Francamente, tutto ciò va perfino al di là della capacità di regolamentazione di un governo. Quello che voglio dire è che, spesso, ci concentriamo sulla necessità di regolamentare una tecnologia in sé, laddove dovremmo intervenire sull’uso che viene fatto di questa tecnologia».

È un problema di interpretazione politica, pare di capire.
«Il fatto che una persona acquisti una piattaforma di social media, la trasformi in un canale di propaganda in vista delle elezioni e, poi, ottenga un posto nell’amministrazione del candidato eletto, sedendosi al suo fianco in ogni occasione pubblica, va ben al di là della tecnologia. Di qui la domanda: ma come si sta evolvendo la politica? E che uso fa la politica della tecnologia?».

Lo chiediamo noi: che uso fa la politica della tecnologia?
«C’è un abbraccio, sempre più stretto, fra potere e tecnologia. È sempre stato così, certo, ma le tecnologie a disposizione oggi, intelligenza artificiale compresa, danno spazio a fenomeni di accumulazione di potere sempre più forti».

L’AI Act dell’Unione Europea, quindi, non centra il nocciolo della questione?
«Al momento, rimane il quadro normativo più importante mai concepito sin qui per regolamentare l’intelligenza artificiale. Ma i suoi contenuti sono abbastanza deludenti: avrebbe dovuto occuparsi dei diritti umani nell’era dell’AI, invece di fatto si concentra sulla regolamentazione e sulla sicurezza dei prodotti e della tecnologia in sé. Sicuramente, l’accordo attorno a questo documento ha rappresentato una svolta. Non solo, l’AI Act fungerà da modello per altri Paesi. Ma parlerei di occasione sprecata, perché nel testo mancano riferimenti specifici a tutto ciò che si può, o non può, fare con l’intelligenza artificiale».

Che X non sia più plurale, basti pensare anche a quanto è in vista il profilo di Elon Musk rispetto ad altri, è manifesto. Ma non ci sono piattaforme neutre. Tutte, in un modo o nell’altro, filtrano contenuti. Gli account pro-Palestina, su Meta, subiscono il cosiddetto shadowbanning

La tecnologia, a proposito di potere, sta consentendo a Elon Musk di veicolare solo e (quasi) esclusivamente i contenuti più congeniali alla sua audience, che oramai tende parecchio a destra. È questo uno degli abbracci pericolosi di cui parlava? Come si potrà garantire la pluralità di informazioni in futuro?
«Beh, Musk si è comprato il campo da gioco su cui costruire la sua ascesa. Ascesa che lo ha portato dentro alla Casa Bianca. Le scelte fatte in termini di governance della piattaforma, con la reintroduzione di contenuti che prima non apparivano, come discorsi d’odio, propaganda di estrema destra e via discorrendo, sono eloquenti. Non solo questi contenuti sono ritornati, ma ora vengono amplificati volontariamente dagli algoritmi della piattaforma. Un recente studio, ancora in attesa della peer review, dimostra proprio come gli algoritmi abbiano promosso un certo tipo di messaggio. Ma le macchine, qui, c’entrano poco: non decidono gli algoritmi, ma chi li ha settati in un certo modo».

Detto di X, esistono piattaforme davvero neutre e plurali?
«Che X non sia più plurale, basti pensare anche a quanto è in vista il profilo di Elon Musk rispetto ad altri, è manifesto. Ma non ci sono piattaforme neutre. Tutte, in un modo o nell’altro, filtrano contenuti. Gli account pro-Palestina, su Meta, subiscono il cosiddetto shadowbanning. X, in questo senso, ha fatto un passo in più agendo sull’influenza algoritmica e trasformando la piattaforma in un cannone di propaganda per Donald Trump. C’è anche da dire che la cultura, su X, è cambiata perché oltre alla promozione di contenuti di destra parecchi utenti se ne sono andati. E ad andarsene, in particolare, sono state utenze legate al mondo accademico e a quello dell’informazione».

Domanda secca: i media tradizionali, in questo bailamme, hanno davvero perso il loro status? E se lo hanno perso, di nuovo, che ne sarà della democrazia?
«Non credo che i media tradizionali abbiano perso centralità. Sì, le ultime presidenziali statunitensi hanno dimostrato che ci sono altre forze mediatiche in grado di influenzare, e pure parecchio, l’opinione pubblica. Penso alla presenza di Donald Trump ai vari podcast di influencer dell’informazione. E all’audience, davvero impressionante, che questi podcast hanno generato. Questa strategia adottata da Trump ha sortito gli effetti sperati, spostando più di un voto, ma ciò non significa che le emittenti televisive classiche o appunto i media tradizionali abbiano perso centralità. Ci troviamo, questo sì, in un ambiente mediatico più sfaccettato, in un certo senso granulare, con diversi centri di influenza. Ed è vero che i media hanno perso il primato o, meglio, l’esclusività. Ciò, però, non significa che siano in ombra rispetto ad altri fenomeni».

Poniamo che un cittadino debba scegliere se informarsi tramite i media tradizionali o sulle piattaforme. Che cosa dovremmo dirgli?
«Che la piazza pubblica, se così vogliamo definirla, sul web è completamente privatizzata. Ed è gestita da aziende private, neoliberiste, che vedono in questi spazi degli spazi aziendali. Le piattaforme sono come un centro commerciale, non sono la piazza principale del paese, quella con il Municipio per intenderci. C’è una frizione che, da decenni oramai, è irrisolta: i social cercano di avere una funzione pubblica all’interno di uno spazio completamente privatizzato e votato al profitto. Gli interessi economici, di conseguenza, saranno sempre prioritari rispetto alla qualità dell’informazione».