«Gli approcci semplicistici all’IA amplificano gli squilibri»

Marc Langheinrich è decano della facoltà, sì, ma è anche molto di più. È esperto in informatica pervasiva e ubiqua, in Internet delle Cose e in difesa della privacy. Molta dell’attualità che tocca la sfera digitale, oggi, passa da questi settori. Con lui facciamo il punto, anche in chiave accademica, perché quegli stessi temi fanno parte del piano di studi all’Università della Svizzera italiana.
Professor Langheinrich, negli ultimi anni stiamo assistendo a un rapido sviluppo delle tecnologie di computing ubiquo e pervasivo. Quali ritiene siano le sfide più importanti a livello di privacy e sicurezza per il futuro prossimo?
«La sicurezza sarà notevolmente influenzata dall’IA generativa, come ChatGPT e strumenti simili. Questi permetteranno all’“industria della truffa” - oggi già grande quanto l’intera industria della droga illegale - di perfezionare e aumentare significativamente le loro attività con email ingannevoli, chat fraudolente e raggiri telefonici sempre meglio realizzati, con voci personalizzate. Per quanto riguarda la privacy, l’aumento dei dispositivi indossabili che raccolgono dati fisiologici - come lo smart watch - renderà sempre più difficile per gli utenti controllare una parte dei loro dati sensibili. Abbiamo già visto un esempio delle implicazioni, quando la nota startup di analisi genetica 23andme.com è fallita e ora milioni di dati DNA più intimi dei loro ex-clienti sembrano essere disponibili per chiunque decida di acquistare questi beni residui, senza alcun riguardo per il rispetto della politica sulla privacy originale, ovviamente».
Le sue ricerche sulla privacy e sulla sicurezza riguardano temi legati alla protezione degli utenti individuali. Le implicazioni di queste tecnologie vanno oltre l’individuo, toccando la sfera sociale e politica. In che modo crede che le tecnologie di computing ubiquo e pervasivo possano influire sulle dinamiche di potere e controllo a livello globale?
«Sebbene molte questioni di sicurezza possano effettivamente riguardare prima di tutto l’individuo, la privacy e la sicurezza hanno sempre avuto un’importanza sociale. Più laptop e telefoni vengono hackerati, più difficile diventa mantenere sicuri quelli rimanenti. Il fatto che così tante informazioni su di noi siano diffuse in così tanti luoghi rende sempre più probabile che vengano rubate da criminali e successivamente utilizzate per furti di identità, il che riduce la fiducia nel commercio elettronico. La privacy ha anche una dimensione molto sociale. Ad esempio, mentre la conoscenza della cronologia dei viaggi di una singola persona non è particolarmente importante per una società tecnologica, la conoscenza dei movimenti di più della metà dei cittadini di un Paese è un bene enorme che può essere monetizzato in molti modi. La Svizzera deve assicurarsi che tutti questi dati siano utilizzati per usi democraticamente legittimi, che vanno a vantaggio dei suoi cittadini, e che i suoi cittadini rimangano al sicuro e non siano esposti ad attacchi online dall’esterno e dall’interno dei suoi confini».
Come vede l’evoluzione dell’interazione uomo-macchina nei prossimi 10 anni? Ritiene che nuove forme di intelligenza artificiale e interazione vocale o gestuale possano migliorare l’usabilità e la sicurezza dei dispositivi?
«Le interfacce utente continueranno sicuramente a evolversi e ci aiuteranno a utilizzare più efficacemente i vari servizi digitali di cui abbiamo bisogno o che vogliamo utilizzare. Tuttavia, vediamo già una complessità crescente nei nostri servizi digitali - la loro interoperabilità, la necessità di proteggerli e la necessità di aggiornarli continuamente per difenderli da nuovi attacchi online. Dobbiamo assicurarci che tutti i cittadini possano continuare a partecipare alla vita quotidiana, che utilizzino o meno i dispositivi digitali più recenti. L’IA generativa e le interfacce vocali potrebbero presentare modi interessanti per facilitare tale partecipazione per tutti, semplificando le interazioni e fornendo una guida personalizzata quando necessario».
La crescita esponenziale dei dati generati da dispositivi IoT (Internet of Things) è una delle sfide del nostro tempo. Come possiamo garantire una gestione sicura di questi enormi flussi di dati senza compromettere la privacy degli utenti?
«La protezione legale in vigore sia in Svizzera sia in tutta l’UE è adatta a garantire anche la nostra privacy considerando IoT, Smart Homes e Wearables. Tuttavia, anche gli utenti devono fare la loro parte assicurandosi che i dispositivi che acquistano e installano, o indossano, seguano questi principi. Non tutti i dispositivi che si trovano nei negozi online economici sono una buona scelta in questo senso. Come utenti, dobbiamo prestare attenzione agli aggiornamenti di sicurezza che proteggeranno questi dispositivi dalle minacce online. Purtroppo, la legislazione non è ancora in grado di obbligare i produttori di dispositivi a fornire questi aggiornamenti per un numero minimo di anni».
A livello accademico, come vede l’integrazione della ricerca sull’etica e sulla privacy nei programmi di informatica?
«Insegniamo etica nei nostri programmi di laurea e offriamo corsi di MSc (Master of Science, ndr) in argomenti relativi alla sicurezza. Tuttavia, intendiamo anche aumentare significativamente la nostra offerta educativa in questo spazio, offrendo in futuro un nuovo MSc in Information and Computer Security».
Guardando al futuro, quali sono secondo lei le aree più promettenti in cui si concentreranno le prossime innovazioni tecnologiche, e come pensa che l’informatica possa rispondere alle sfide globali, come il cambiamento climatico o la disuguaglianza sociale?
«Le tecniche di IA sono ovviamente molto popolari in questi giorni, ma cerchiamo anche di guardare oltre il clamore e consideriamo altre tendenze e sfide altrettanto rilevanti. L’informatica ha soluzioni da offrire per le sfide globali come il cambiamento climatico, ad esempio, sotto forma di supporto computazionale per la modellazione climatica o lo sviluppo di linguaggi di programmazione più efficienti dal punto di vista energetico. Il lavoro sull’intelligenza artificiale spiegabile (Explainable AI) svolto qui all’USI mira a rendere più trasparenti i modelli di IA, consentendo così agli sviluppatori di identificare chiaramente i limiti di queste tecnologie, ai responsabili politici di assicurarsi che siano libere da bias, e ai cittadini di capire meglio come vengono generati i risultati, fornendo loro anche strumenti per contestare eventuali errori. Se non prestiamo attenzione ai bias e alla mancanza di trasparenza nei sistemi di IA, affronteremo una crescente disuguaglianza sociale, poiché gli approcci semplicistici all’IA tendono ad amplificare gli squilibri esistenti».
Tecnologie come il già citato Internet delle Cose e la raccolta massiva di dati comportano un rischio di disuguaglianze nell’accesso alle informazioni e ai benefici derivanti dalle nuove tecnologie. Che cosa pensa dell’impatto di queste tecnologie sulla creazione di nuove forme di disuguaglianza sociale ed economica, a livello locale e globale?
«Questo è un tema molto urgente e dobbiamo assicurarci che i valori europei continuino a essere incorporati nei sistemi software che implementiamo e utilizziamo qui. Penso che abbiamo l’opportunità qui in Europa di garantire che i dati non siano semplicemente raccolti da grandi multinazionali e monetizzati altrove, ma che vadano a beneficio della società e degli individui allo stesso modo. Chiaramente, questo richiede regolamentazioni forti che possano bilanciare il bene sociale con le opportunità imprenditoriali. La Svizzera, con il suo approccio unico di coinvolgere i cittadini nel processo legislativo, è ben posizionata per arrivare a soluzioni innovative ed efficaci».
La crescente interconnessione delle persone attraverso piattaforme digitali ha anche creato nuove forme di «comunicazione globale». Tuttavia, le stesse tecnologie che permettono una condivisione globale di conoscenze ed esperienze sono anche a rischio di abuso, ad esempio con la diffusione di disinformazione. Come possiamo usare la tecnologia per promuovere una comunicazione più trasparente e responsabile, senza sacrificare la libertà di espressione?
«Mentre la Svizzera ha deciso nel 2017 che non era necessaria un’ulteriore regolamentazione dei social media, l’aumento drammatico della disinformazione e la recente decisione di Facebook e X di chiudere le loro unità di “fact checking” significa che è giunto il momento di rivedere questa decisione. Il “Digital Services Act” dell’UE incorporerà presto un codice di condotta esplicito specificamente contro la disinformazione. Da una prospettiva statunitense, questo approccio europeo è spesso stato considerato una forma di censura, ma sembra esserci un forte consenso in Europa sul fatto che la libertà di espressione ha dei limiti quando si tratta di incitamento all’odio, cyberbullismo e fake news».
In che modo le sue ricerche e la sua esperienza possono contribuire a educare le nuove generazioni di informatici e ricercatori a riflettere sull’impatto sociale delle tecnologie? Pensa che le università debbano giocare un ruolo attivo nell’insegnare ai futuri professionisti non solo le competenze tecniche, ma anche una forte consapevolezza etica?
«L’università deve certamente assumere un ruolo centrale nel rafforzamento delle competenze etiche dei laureati in Informatica; più in generale, però, occorre intensificare lo sviluppo delle capacità necessarie a un uso consapevole della tecnologia fin da un’età molto più giovane. Soprattutto, dobbiamo aiutare i genitori a comprendere meglio l’impatto della connettività digitale sui loro figli. Dobbiamo assicurarci che accompagnino attivamente i loro figli quando interagiscono con le tecnologie digitali e che non permettano loro di usarle in un’età in cui non hanno ancora sviluppato una resilienza contro le minacce e i pericoli presenti in molti servizi online. Come società, credo che presto saremo chiamati a definire insieme quanto spazio concedere ai social media nelle nostre vite e in quelle delle nuove generazioni, stabilendo anche con chiarezza quali limiti vogliamo porre allo sfruttamento dei dati personali per interessi economici privati».