«Sull'intelligenza artificiale i media, spesso, hanno creato panico morale»
L’appuntamento è fissato per oggi, alle 18.40, all’Asilo Ciani di Lugano. Il panel, organizzato nell’ambito dell’AI Week, è di quelli importanti. A cominciare dal titolo. Intelligenza artificiale e democrazia: tra formazione e informazione. Attualità e scenari futuri, insomma. Vi parteciperanno Bruno Giussani, Silvia Quarteroni e Philip Di Salvo, ricercatore post-doc dell’Università di San Gallo. Con il quale, a poche ore dal confronto, abbiamo scambiato quattro chiacchiere.
Dottor Di Salvo, partiamo a bomba:
come potremmo definire, oggi, con l’incedere dell’intelligenza artificiale e,
parallelamente, della disinformazione, il nostro rapporto con ciò che
consumiamo online e la democrazia?
«Credo, parlando di disinformazione e
misinformazione online, che innanzitutto bisogna fare un minimo di
contestualizzazione. Senza dubbio, parliamo di fenomeni molto forti al momento.
Fenomeni che, proprio per questo, non vanno sottovalutati. Detto questo, sui
media troppo spesso si fanno discorsi esasperati sul tema. Dipingendo, di
riflesso, un quadro più grave di quello che, in effetti, vediamo».
In che senso, scusi?
«Nel senso che non c’è grande evidenza, anzi
non ce n’è quasi nessuna, circa l’impatto della disinformazione online sulle
scelte elettorali delle persone o su determinati risultati alle urne. Insomma,
i media cadono in quello che la terminologia scientifica chiama panico morale. Si
definisce panico morale l’esasperazione di un problema oltre la sua effettiva
portata. Il che, attenzione, non significa non riconoscere la disinformazione:
c’è, esiste ed è certamente un aspetto cui prestare attenzione».
Significa che, come media, abbiamo
letto e interpretato male alcuni segnali?
«A lungo, sicuramente, i media hanno cercato
di trovare spiegazioni a fenomeni complessi, come il referendum sulla Brexit o
la prima elezione di Donald Trump, nel 2016, attraverso la disinformazione
online. Lo stesso dicasi per le presidenziali americane di novembre. Tuttavia,
per quanto esista un problema di qualità dell’informazione, un contenuto falso
o fuorviante da solo non può spiegare determinati risultati».
L’intelligenza artificiale, allora,
ora come ora non ha avuto alcun ruolo né può averlo…
«Si diceva, in effetti, che l’intelligenza
artificiale avrebbe potuto influenzare il voto americano. Ma si tratta di
esagerazioni. A tratti anche mitologiche».
Vuol dire, rovesciando la questione, che,
come consumatori di contenuti online, siamo diventati più intelligenti? All’epoca,
quando l’immagine
del Papa con il Mon Clero divenne virale in molti ci cascarono.
«Rispetto a quella foto, che risale oramai
a quasi due anni fa, la qualità dei contenuti generati dall’intelligenza
artificiale, pensando a video e immagini, non è migliorata in modo
significativo. Le famose foto di Donald Trump con cani e gatti in braccio, in
occasione delle ultime presidenziali, erano chiaramente poco credibili. Dubito
che qualcuno le abbia prese per vere. Anche perché erano a un passo dall’essere
dei cartoni animati. Ma un discorso analogo si può fare per i cosiddetti deepfake,
che a detta di molti avrebbero potuto ingannare milioni di utenti. Quasi tutti
i video di questo genere circolati online, negli ultimi anni, sono stati
immediatamente riconosciuti come falsi. Perciò, ecco, l’intelligenza
artificiale offre indubbiamente delle possibilità per aumentare la portata
della disinformazione e della misinformazione online, ma ora come ora non si
sono viste grandi ondate di contenuti generati con l’AI. O meglio, la fattura
di questi contenuti è ancora molto grossolana e non abbastanza fine per
rappresentare un pericolo su larga scala».
Ci è stato detto, però, che queste
tecnologie migliorano di minuto in minuto. Quindi?
«La domanda è proprio questa: strumenti
del genere diventeranno, entro pochi anni, problematici visto il loro livello
di credibilità? Io, al riguardo, mi preoccuperei maggiormente dei deepfake
audio, attraverso cui è possibile imitare la voce di un personaggio pubblico.
Un articolo del Washington Post ha confrontato le voci reali dei due candidati
alle presidenziali del 2024 e quelle create con l’intelligenza artificiale. In
alcuni casi, riconoscere quale delle due versioni fosse la voce originale era
tutto fuorché un esercizio immediato. Il che mi porta a pensare che sia più
facile veicolare disinformazione con gli audio».
C’è modo di intervenire, a livello di
regolamentazione, e di farlo prima che sia troppo tardi?
«Non sono un esperto di regolamentazione, ma
negli ultimi due anni in America abbiamo assistito a qualcosa senza precedenti:
l’acquisizione di Twitter, ora X, da parte di un miliardario, Elon Musk, e la
trasformazione della piattaforma in un canale di propaganda trumpiana. Francamente,
tutto ciò va perfino al di là della capacità di regolamentazione di un governo.
Quello che voglio dire è che, spesso, ci concentriamo sulla necessità di
regolamentare una tecnologia in sé, laddove dovremmo intervenire sull’uso che
viene fatto di questa tecnologia».
È un problema di interpretazione
politica, pare di capire.
«Il fatto che una persona acquisti una
piattaforma di social media, la trasformi in un canale di propaganda in vista
delle elezioni e, poi, ottenga un posto nell’amministrazione del candidato
eletto, sedendosi al suo fianco in ogni occasione pubblica, va ben al di là
della tecnologia. Di qui la domanda: ma come si sta evolvendo la politica? E
che uso fa la politica della tecnologia?».
Lo chiediamo noi: che uso fa la
politica della tecnologia?
«C’è un abbraccio, sempre più stretto, fra
potere e tecnologia. È sempre stato così, certo, ma le tecnologie a disposizione
oggi, intelligenza artificiale compresa, danno spazio a fenomeni di
accumulazione di potere sempre più forti».
L’AI
Act dell’Unione Europea, quindi, non centra il nocciolo della questione?
«Al momento, rimane il quadro normativo
più importante mai concepito sin qui per regolamentare l’intelligenza
artificiale. Ma i suoi contenuti sono abbastanza deludenti: avrebbe dovuto
occuparsi dei diritti umani nell’era dell’AI, invece di fatto si concentra
sulla regolamentazione e sulla sicurezza dei prodotti e della tecnologia in sé.
Sicuramente, l’accordo attorno a questo documento ha rappresentato una svolta.
Non solo, l’AI Act fungerà da modello per altri Paesi. Ma parlerei di occasione
sprecata, perché nel testo mancano riferimenti specifici a tutto ciò che si
può, o non può, fare con l’intelligenza artificiale».
La tecnologia, a proposito di potere,
sta consentendo a Elon Musk di veicolare solo e (quasi) esclusivamente i
contenuti più congeniali alla sua audience, che oramai tende parecchio a
destra. È questo uno degli abbracci pericolosi di cui parlava? Come si potrà
garantire la pluralità di informazioni in futuro?
«Beh, Musk si è comprato il campo da gioco
su cui costruire la sua ascesa. Ascesa che lo ha portato dentro alla Casa
Bianca. Le scelte fatte in termini di governance della piattaforma, con la
reintroduzione di contenuti che prima non apparivano, come discorsi d’odio, propaganda
di estrema destra e via discorrendo, sono eloquenti. Non solo questi contenuti
sono ritornati, ma ora vengono amplificati volontariamente dagli algoritmi
della piattaforma. Un recente studio, ancora in attesa della peer review,
dimostra proprio come gli algoritmi abbiano promosso un certo tipo di messaggio.
Ma le macchine, qui, c’entrano poco: non decidono gli algoritmi, ma chi li ha
settati in un certo modo».
Detto di X, esistono piattaforme
davvero neutre e plurali?
«Che X non sia più plurale, basti pensare
anche a quanto è in vista il profilo di Elon Musk rispetto ad altri, è
manifesto. Ma non ci sono piattaforme neutre. Tutte, in un modo o nell’altro,
filtrano contenuti. Gli account pro-Palestina, su Meta, subiscono il cosiddetto
shadowbanning. X, in questo senso, ha fatto un passo in più agendo sull’influenza
algoritmica e trasformando la piattaforma in un cannone di propaganda per
Donald Trump. C’è anche da dire che la cultura, su X, è cambiata perché oltre
alla promozione di contenuti di destra parecchi utenti se ne sono andati. E ad
andarsene, in particolare, sono state utenze legate al mondo accademico e a
quello dell’informazione».
Domanda secca: i media tradizionali,
in questo bailamme, hanno davvero perso il loro status? E se lo hanno perso, di
nuovo, che ne sarà della democrazia?
«Non credo che i media tradizionali
abbiano perso centralità. Sì, le ultime presidenziali statunitensi hanno
dimostrato che ci sono altre forze mediatiche in grado di influenzare, e pure
parecchio, l’opinione pubblica. Penso alla presenza di Donald Trump ai vari podcast
di influencer dell’informazione. E all’audience, davvero impressionante, che
questi podcast hanno generato. Questa strategia adottata da Trump ha sortito
gli effetti sperati, spostando più di un voto, ma ciò non significa che le
emittenti televisive classiche o appunto i media tradizionali abbiano perso
centralità. Ci troviamo, questo sì, in un ambiente mediatico più sfaccettato,
in un certo senso granulare, con diversi centri di influenza. Ed è vero che i
media hanno perso il primato o, meglio, l’esclusività. Ciò, però, non significa
che siano in ombra rispetto ad altri fenomeni».
Poniamo che un cittadino debba
scegliere se informarsi tramite i media tradizionali o sulle piattaforme. Che cosa
dovremmo dirgli?
«Che la piazza pubblica, se così vogliamo
definirla, sul web è completamente privatizzata. Ed è gestita da aziende
private, neoliberiste, che vedono in questi spazi degli spazi aziendali. Le
piattaforme sono come un centro commerciale, non sono la piazza principale del
paese, quella con il Municipio per intenderci. C’è una frizione che, da decenni
oramai, è irrisolta: i social cercano di avere una funzione pubblica all’interno
di uno spazio completamente privatizzato e votato al profitto. Gli interessi
economici, di conseguenza, saranno sempre prioritari rispetto alla qualità dell’informazione».