«Proteggersi dai rischi digitali ma senza bloccare l'innovazione»
Il mondo digitale è in continua evoluzione. Si trasforma, velocemente, spesso portando benefici alla società e a coloro che, in generale, utilizzano questi nuovi strumenti, tra i quali spicca l’intelligenza artificiale. Dall’altro lato, però, questa trasformazione comporta anche timori e preoccupazioni. In particolare per la dimensione legislativa, che si trova – nel tentativo di stare al passo – ad affrontare sfide che, fino a qualche anno fa, non solo non esistevano, ma erano anche difficili da immaginare. Con Bertil Cottier, professore emerito all’USI di Lugano, abbiamo parlato di queste difficoltà, tema della Lectio Magistralis con cui, ieri sera, ha dato il suo commiato alla comunità accademica dell’Università della Svizzera italiana.
Scatola nera
Comprendere e dare il giusto peso sia ai lati positivi sia a quelli negativi dell’intelligenza artificiale non è affatto evidente. Soprattutto per i legislatori. «La preoccupazione più grande, ora come ora, è legata all’incertezza del prodotto. In altre parole, chi crea un sistema di intelligenza artificiale non è in grado di spiegare come questo sistema funzioni a tutti gli effetti». Gli ingegneri conoscono infatti una parte dell’evoluzione del sistema: possono dire che cosa si può fare con uno strumento di questo tipo, ma con dei limiti. «È ciò che chiamiamo black box. Un problema nuovo anche per i legislatori, per i quali, va da sé, diventa molto difficile gestire l’intelligenza artificiale». Quando si tratta di questioni legate al mondo digitale, spiega l’esperto, bisogna confrontarsi, in primo luogo, con tutti i problemi conosciuti in precedenza con internet, la globalizzazione e la complessità dei sistemi di comunicazione. «Queste problematiche sono presenti anche con l’intelligenza artificiale. Ora, però, si aggiunge un’incertezza sul funzionamento del sistema, a causa della difficoltà, per i legislatori, nel gestire la cosiddetta black box. Abbiamo un problema legato alla rapidità del progresso scientifico. Dire che avanza velocemente sarebbe riduttivo: ha un piede fisso sull’acceleratore».
Regolamentare qualcosa in continua evoluzione come lo è l’intelligenza artificiale, è tutt’altro che una faccenda semplice. «Pensiamo alla legge sulla circolazione stradale, fatta da articoli e norme, più o meno chiare e precise. Sono ciò che permette al traffico di funzionare, rendendo consapevoli i cittadini su come devono comportarsi alla guida. Ecco, con il mondo digitale legislazioni di questo tipo non esistono». Complicato comprendere a chi spetti il compito di regolamentare l’intelligenza artificiale. «A giugno, l’UE ha emanato l’AI Act, una regolamentazione sull’intelligenza artificiale. Dopo tre anni di lavoro, anche il Consiglio d’Europa ha adottato una convenzione quadro sull’intelligenza artificiale. I due testi non sono simili, ma la strategia è più o meno la stessa». Firmata a Vilnius, la Convenzione del Consiglio d’Europa, in particolare, contiene una serie di obblighi per garantire che i diritti umani siano rispettati nello sviluppo e nell’uso dei sistemi di intelligenza artificiale. «Per il resto, questi testi creano procedure di verifica di monitoraggio dello sviluppo di tutti questi sistemi. E l’idea è di garantire un costante monitoraggio per avere più trasparenza possibile su come funzionano questi strumenti. Forse trovando il contrario della black box: una sorta di white box che promuove una migliore conoscenza del sistema».
L’obiettivo sarebbe quello di controllare gli impatti del sistema, così da poter intervenire quando si presenta un grave problema – ad esempio se l’AI commette discriminazioni o diffonde fake news – proponendo tempestivamente una soluzione. «Per riuscirci bisognerebbe avere un organo indipendente, che si occupi in modo permanente di queste problematiche», spiega Cottier. «A livello politico, tutti sono d’accordo sul fatto che non è possibile imporre un divieto all’intelligenza artificiale. Ma dall’altra parte, la comunità internazionale non vuole rimanere a guardare. Bisogna intervenire. E, secondariamente, tutelare i diritti fondamentali e la democrazia. L’obiettivo, insomma, è proteggersi, ma senza bloccare l’innovazione».
Incognita americana
È qui che nasce il problema. «Alcuni Stati sono dell’opinione che serva un quadro legale molto flessibile per poter sviluppare tutti questi poteri senza troppi ostacoli. Ma bisogna trovare un compromesso». Ed è a questo punto che risulta evidente la principale differenza tra l’AI Act e la convenzione quadro del Consiglio d’Europa. «Nel primo caso, abbiamo solo i 27 Stati membri dell’UE. Nel Consiglio d’Europa, invece, ci sono 46 Nazioni. E la clausola finale permette a Paesi non membri extraeuropei di ratificare il testo». In altre parole, a livello politico, la Convenzione permette ai «big player» dell’AI, come gli Stati Uniti, di unirsi al gioco. «Il Consiglio d’Europa ha invitato rappresentanti dell’amministrazione Biden a partecipare alle negoziazioni. Apparentemente una buona idea. Ma gli Stati Uniti non sono molto favorevoli al monitoraggio». E le cose non miglioreranno con Trump: «La firma di Biden sulla convenzione quadro di Vilnius necessita di una ratifica perché diventi vincolante. E io sono abbastanza sicuro che l’amministrazione Trump non voglia portare avanti questo testo. Soprattutto vista l’influenza di Elon Musk, che vedrebbe nella convenzione un vero e proprio ostacolo».
Il problema, dunque, per ora, rimane. Anche e soprattutto nella vita quotidiana. «Io credo nell’approccio tradizionale del legislatore: il problema è gestire i fatti. Lo riassume molto bene l’espressione latina «Da mihi factum, dabo tibi ius». Raccontami il fatto e ti darò il diritto. Con internet, la globalizzazione e la velocità del progresso scientifico, il problema si sposta però sui fatti, che spesso, nel campo dell’AI, sono impossibili da narrare. Ciò significa che il legislatore deve cambiare strategia. Non si può pensare di regolare l’intelligenza artificiale se utilizziamo i vecchi strumenti. Bisogna avere un nuovo tool box, un approccio diverso, dove il peso si concentri sul monitoraggio e sulla possibilità di intervenire in modo rapido». In altre parole, non è ancora troppo tardi per regolamentare l’intelligenza artificiale. Ma bisogna trovare un nuovo approccio del diritto. «È difficile spiegarlo ai colleghi che si occupano di diritto tradizionale, dei testamenti o del diritto delle successioni, il quale si basa su testi di inizio ‘900. Per un docente di diritto delle nuove tecnologie, avere a che fare col mondo digitale vuol dire invece dover aggiornare il proprio corso continuamente», ci dice sorridendo il professore, che nella sua carriera all’USI ha visto il quadro modificarsi a più riprese, anno dopo anno.
Dal digitale al reale
Non è facile, per ora, capirlo, ma esistono già problemi concreti legati all'intelligenza artificiale: problemi che hanno ripercussioni sulla vita di tutti i giorni. «I sistemi di social scoring (punteggio sociale, ndr) che si basano sull'intelligenza artificiale possono diventare un vero ostacolo per alcune persone, laddove è richiesto un controllo dei dati. Motivo per cui ci sono minoranze che possono incontrare difficoltà ad aprire un conto in banca, ottenere un lavoro o iscriversi all'università, a causa di questo sistema, che classifica i loro dati come "non di qualità". Si tratta di un problema che si verifica nel mondo digitale, ma che può portare a grandissimi problemi nella vita reale». Un solo esempio che ci ricorda l'urgenza con cui l'intelligenza artificiale deve essere regolata. Per i problemi di un domani che è già qui.