Marco Camisani Calzolari: «Ecco perché è importante regolamentare l'AI»
Quando inizia a parlare, Marco Camisani Calzolari – noto anche con l’acronimo MCC – diventa un fiume in piena. È il suo mestiere, d’altronde. Salito alla ribalta come inviato di Striscia la Notizia, questo italiano trapiantato a Londra in realtà è (anche) altro. Molto altro. Insegnante di comunicazione all’Università, autore di numerosi saggi, consulente del Dipartimento per la trasformazione digitale e, infine, Membro del comitato della Presidenza del Consiglio per le strategie dell’intelligenza artificiale italiana oltreché Membro del comitato scientifico presso il Centro di Ricerca dell’Università La Sapienza. Attivo dagli anni Novanta, è fra i più conosciuti divulgatori di cultura digitale. Lo abbiamo intervistato in vista della sua ospitata all’Asilo Ciani di Lugano, il prossimo 29 febbraio, nell’ambito della ated Digital Night.
Partiamo dalla
strettissima attualità, ovvero dall’AI Act dell’Unione Europea oramai in
dirittura d’arrivo. Tradotto: l’intelligenza artificiale, almeno in Europa,
avrà una sua regolamentazione. Solita domanda: perché, all’epoca dei social
network, non ci fu questa lungimiranza?
«È una bella domanda. Bellissima. E la risposta è al tempo stesso semplice e
complessa. Innanzitutto, non è così vero che le tecnologie precedenti non siano
mai state regolamentate. Anche perché molta della regolamentazione necessaria
era già presente. Basti pensare al bullismo. Quello che è mancato, forse, è un
certo aggiornamento delle leggi, considerando che il digitale ha velocità e
tempi differenti. Legalmente, però, concetti come la diffamazione o la violenza
verbale erano già codificati. In secondo luogo, c’è anche una differenza
prettamente tecnica».
Ovvero?
«Per quanto i social potessero, e possono, influenzare le nostre vite, e la
democrazia allargando il campo, si muovevano e si muovono sfruttando funzioni
attivate sempre e comunque dall’uomo, al di là dei processi di automazione.
L’intelligenza artificiale, per natura, prende decisioni autonome. Questo, di
fatto, è quello che le chiediamo e ciò che vogliamo da lei».
Proviamo a fare un
po’ i luddisti: d’accordo il progresso, ma che ne sarà dell’uomo se ogni
aspetto della nostra quotidianità può essere deciso dalle macchine?
«Le decisioni che possono prendere, in effetti, sono molto vaste. Ma qui si
apre un altro fronte problematico. Ovvero, grazie a quali dati l’intelligenza
artificiale può produrre un determinato contenuto? Rispetto al passato, ai
social per intenderci, i sistemi di addestramento dei modelli di linguaggio –
come ChatGPT – funzionano diversamente: raccolgono una marea di dati, li
digeriscono come fossero ingredienti di un minestrone e, infine, li cancellano.
E allora mi vengono in mente altre domande: chi c’è dietro? Chi decide,
soprattutto, che cos’è giusto e che cos’è sbagliato nell’allenare una macchina?
E i pregiudizi? Le stesse aziende, spesso, di fronte a questi quesiti non sanno
rispondere: perché questi sistemi hanno creato vere e proprie reti neurali che
hanno trasformato dati e informazioni».
Torniamo allora alla
prima domanda. E riformuliamo: l’esigenza di regolamentare l’intelligenza
artificiale nasce dal rischio che sfugga al nostro controllo?
«Se, rimanendo ai social network, sappiamo che cosa contengono i database e
dove reperire un determinato dato, nel caso dell’intelligenza artificiale non conosciamo
il contenuto dei modelli di linguaggio. C’è, inoltre, il dilemma etico e della
responsabilità. O meglio, chi si assume l’onere di una decisione della
macchina? Più concretamente, ancora, una regolamentazione è necessaria anche
per questioni di diritto d’autore. Se l’intelligenza artificiale sa produrre
determinati contenuti, è perché ha digerito l’opera dell’uomo. E questa opera è
stata digerita attraverso una raccolta perlopiù selvaggia di dati normalmente
protetti da copyright. O, peggio, sfruttando dati sensibili. I nostri».
Ma non siamo già in
ritardo per tutto questo? ChatGPT e simili sono già sul mercato, hanno già
ingerito i dati di cui parla e, soprattutto, negli Stati Uniti non sembra
esserci la medesima attenzione alla protezione della privacy che c’è in Europa.
Come la mettiamo?
«Beh, il mondo è grande e non possiamo pensare che, se l’Unione Europea va in
una certa direzione, tutti seguano il suo esempio. Gli Stati canaglia, per
dire, difficilmente vorranno regolamentare il settore e regolamentarsi. E poi, così
facendo, l’Europa di turno rischia – paradossalmente ma nemmeno troppo – di farsi
del male. Alla Tafazzi. Della serie: noi regoliamo mentre tutti gli altri traggono
benefici».
Ma perché gli Stati
Uniti sembrano privilegiare di più l’aspetto economico dell’intelligenza artificiale
rispetto alla necessità di regolamentare il settore?
«Perché, di fatto, hanno in mano le infrastrutture e, in generale, un’altra
forza dirompente e strategica. Dopo essere diventati padroni di Internet e del
digitale, ora gli americani sono pure padroni dell’AI. E così, detto con un
termine tecnico: che gli frega agli Stati Uniti di regolamentare tutto questo?».
L’intelligenza
artificiale si collega ai cosiddetti deepfake e alla possibilità che
determinati contenuti, come dei video, interferiscano con il processo
democratico. Anche qui, i buoi sono già scappati dalla stalla.
«Per quanto uno possa regolamentare il settore, come fai a dire all’hacker
nordcoreano di turno che non deve fabbricare video fasulli di Joe Biden?
Perfino la lingua, oggigiorno, non è più uno scoglio. È come un colabrodo: puoi
cercare di chiudere tutti i buchi, ma qualcosa passa sempre. Per tacere del
fatto che ci sono esempi di influenza molto meno eclatanti: su TikTok, social
riconducibile al governo cinese, e Pechino non è certo un alleato di
Washington, miliardi di persone si beccano contenuti prodotti da uno Stato
dichiaratamente poco amico dell’America. Anche questa a suo modo è
un’interferenza».
L’impressione è che
sia impossibile, ora, tornare indietro.
«Di certo, pensando alla salute di una democrazia, quando convinci un gruppo di
persone di una determinata cosa, beh, tornare indietro è impossibile. Il danno
rimane. Quante persone, ad esempio, credono che esistano chip sottocutanei per
controllare la gente? Se tutto ciò influisce sul processo di voto, credetemi,
abbiamo un serio problema».
Prima parlava di
buchi da tappare: si riesce ad arrivare alla fonte dei deepfake?
«Raramente. Quello che uno può fare, come istituzione, è favorire la
prevenzione, la cultura digitale e la divulgazione. Quando sai che rischi
corri, di conseguenza puoi proteggerti meglio. Anche di fronte alle truffe
telefoniche, che funzionano perché fanno leva su determinati meccanismi
psicologici, esistono modi per verificare che l’interlocutore dall’altra parte
stia raccontando il vero».
Lei, a proposito di
divulgazione, ha scelto un taglio ironico e brillante per attaccare i criminali
informatici tramite Striscia la Notizia. È questa la chiave?
«Striscia è ancora uno dei pochi programmi che raggiungono un’ampia
fetta di popolazione. Trattandosi di una trasmissione di intrattenimento, se
usassi un linguaggio troppo tecnico nessuno mi darebbe retta. La gente
continuerebbe a mangiare e a farsi i fatti suoi. Io dico che bisogna essere
seri ma non seriosi».