Dati cerebrali e intelligenza artificiale: dove andrà il metaverso?
È sulla bocca di tutti. Anche perché, nelle intenzioni, promette di rivoluzionare le nostre vite. Ridefinendo l’equilibrio fra chi siamo nel mondo fisico e cosa facciamo in quello virtuale. Parliamo del metaverso, il cosiddetto futuro di Internet. Un futuro immersivo. Totale e totalizzante. In 3D. Un futuro, tuttavia, non privo di criticità e, per questo, simile al presente: disinformazione, odio, teorie complottiste, perfino molestie. Gli esperti concordano: il metaverso potrebbe ereditare le piaghe che caratterizzano i social di oggi. E, peggio ancora, vederle crescere a dismisura, complice la realtà aumentata. Molto, in questo senso, dipenderà dai sistemi di intelligenza artificiale. E dalla loro capacità di intercettare contenuti offensivi e fuorvianti. Altra criticità, sotto forma di domanda: siamo sicuri che affidare simili compiti alle macchine sia una soluzione eticamente corretta e sostenibile?
«Il metaverso è uno strumento» afferma il professor Andrea Rizzoli, direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA) USI-SUPSI. «Uno strumento paragonabile al telefono, a Internet o ai social. Ciò che succede al suo interno, insomma, non è così diverso da ciò che può succedere quando delle persone discutono in un bar o su Facebook. Semmai, nella vita reale prima di insultare qualcuno ci pensiamo due volte. Rimanendo all’esempio del bar, per farlo dovremmo avere un tasso alcolico un po’ elevato. Queste remore, invece, sui social cadono. E ancora: se dico una baggianata in un locale pubblico, lì la pronuncio e lì sostanzialmente rimane. I social, invece, permettono una rapida ridiffusione di contenuti. Anche partendo da un gruppo ristretto. Il fatto che il metaverso offra un’interazione virtuale immersiva, guardandolo da un’ottica positiva, dovrebbe spingerci verso una relazione più umana. E questo perché non siamo più di fronte a uno schermo con delle lettere che scorrono, ma a rappresentazioni virtuali di altre persone. Il che potrebbe far scattare un meccanismo di automoderazione».
Facebook non fa beneficenza
I social, ad oggi, hanno fallito nel contenere fake news e messaggi offensivi. Perché dovremmo credere che nel metaverso le cose un domani saranno migliori? In che modo, soprattutto, la capacità di regolarsi degli utenti dialogherà con l’intelligenza artificiale chiamata a fare da sceriffo? E ancora: la citata intelligenza artificiale sarà davvero più sviluppata? «Un sistema che tutto sorveglia e tutto controlla, simil Grande Fratello, a me fa un po’ paura» prosegue Rizzoli. «Non mi piace. Dobbiamo, in generale, immaginarci una bilancia. Su un piatto c’è la tutela delle libertà individuali, sull’altro la tutela della collettività. Prendiamo le famose vignette di Maometto. Se le pubblico in un gruppo chiuso e ristretto, formato da atei liberalisti, non mi aspetto di offendere nessuno se non il buon gusto. Per contro, nel momento in cui le pubblico su un giornale o le espongo in un museo qualche domanda dovrei pormela. Ecco che l’intelligenza artificiale, allora, potrebbe fare da consulente. Facendo emergere il quesito: sei veramente sicuro di voler pubblicare questa vignetta? Sei consapevole delle conseguenze e del fatto che stai offendendo profondamente molte persone? Quanto al controllo vero e proprio, andrebbe previsto per casi eclatanti. Dei neonazisti che sfruttano il metaverso per preparare degli attentati, ad esempio».
La vastità del metaverso e, allo stesso tempo, la possibilità di incontrarsi in cerchie ristrette apre a scenari impensabili. Soprattutto, pone al centro la questione dell’identità: possiamo davvero essere chi vogliamo nel metaverso? O ci saranno dei limiti? «Dipenderà dal tipo di metaverso realizzato» prosegue Rizzoli. Perché sì, diverse aziende proporranno esperienze immersive. «Meta, ovvero Facebook, al momento sta cavalcando l’onda del fenomeno. Ma Alphabet Google, Apple e Amazon non resteranno indietro». In alcune circostanze, dunque, sarà necessario un avatar che rispecchi in tutto e per tutto la persona fisica, in altre invece «sarà possibile personalizzare completamente la propria personalità» specifica l’esperto. «Alcuni social già permettono l’anonimato».
«Dovremmo chiederci, a tal proposito, da chi è gestita l’esperienza che ci viene offerta» sottolinea dal canto suo Alessandro Facchini, docente-ricercatore senior presso IDSIA USI-SUPSI. «Se Facebook investe nel metaverso, per intenderci, non lo fa per beneficenza ma perché ha un business model progettato per generare entrate, essenzialmente grazie alla sua capacità di fornire annunci pubblicitari mirati». La questione, qui, entra in una dimensione che abbraccia l’etica e il rispetto della sfera privata. «L’utilizzo di caschi e occhiali garantisce un’esperienza unica da un lato ma, dall’altro, permette alla tecnologia e pertanto a chi la controlla di accedere ai dati biometrici. Penso al movimento del corpo e degli occhi o al battito cardiaco». I dati acquisiti attraverso l’esperienza del metaverso potranno quindi essere utilizzati per identificarci, come avviene con le impronte digitali. «Ma c’è di più – prosegue Facchini –. La tecnologia sta arrivando ai dati cerebrali, e quindi alla cosa più vicina agli “stati mentali” di una persona. Parliamo di un futuro non troppo lontano, perché Big Tech sta sviluppando l’interfaccia cervello-computer. E parliamo di dati al momento non ancora ben regolamentati. In questo senso, la sfida sarà quindi di preservare non solo la libertà di parola ma forse anche quella di pensiero».
«La sfera personale – gli fa eco Rizzoli – si sta restringendo sempre di più. Prima era rappresentata dalla porta di casa nostra, ma da quando ci siamo dotati di Alexa, Siri e via discorrendo le aziende hanno informazioni su cosa facciamo fra le mura domestiche».
Allenare l’intelligenza
Il metaverso, dai social, si trascina con sé i discorsi attorno alla libertà di parola e alla censura. Che cosa dobbiamo aspettarci in merito? E in che modo l’intelligenza artificiale potrebbe venire allenata a riconoscere il bene dal male? Ancora Rizzoli: «Un primo approccio, un po’ banale, consiste nell’allenare la macchina a riconoscere immagini e parole offensive. Ma se l’intelligenza artificiale è molto brava a processare e capire il linguaggio, lo stesso non si può dire per il significato e la semantica. Perciò si possono creare situazioni ambigue: pensiamo al quadro L’origine del mondo di Gustave Courbet, postato in un gruppo di amanti dell’arte ma comunque censurato. Gli algoritmi non riescono ancora a fare questi processi in maniera accurata. L’intelligenza artificiale, ad oggi, si discosta dall’uomo in termini di ragionamento e analisi. Uber chiede ai suoi autisti di scattarsi un selfie come prova che siano effettivamente loro a guidare. Un dipendente, a Londra, non è stato riconosciuto dall’algoritmo e quando ha provato a far valere le sue ragioni non ha ottenuto riscontro».
La minaccia dei robot
La discussione si fa vieppiù interessante. E le domande, di riflesso, si accavallano. Fino a che punto può spingersi un’intelligenza artificiale? O meglio, esiste il rischio – come nei film di fantascienza – che la macchina prenda il sopravvento sull’uomo? Detto dei vari aspetti etici e tecnologici, a chi spetterà regolamentare il metaverso? Quale sarà il ruolo dei singoli governi?
«Cosa succederebbe se di colpo l’intera rete elettrica subisse un guasto?» replica Rizzoli. «Qualsiasi tipo di tecnologia, quando ne diventiamo dipendenti, è una minaccia per la nostra esistenza. Il caso dell’intelligenza artificiale è particolare perché la mente si immagina macchine dotate di libero arbitrio capaci di prendere decisioni. E che queste decisioni possano non essere piacevoli per noi. È un rischio che molti paventano. Di scivoloni, in effetti, ce ne sono stati. Anche recenti, se pensiamo al dibattito sui robot-assassini nell’ambito del quale la Svizzera, come diversi altri Paesi, non si è opposta alla creazione di robot-killer. Lo ha fatto per non privare l’industria militare elvetica di una nuova possibilità. Ma bisognerebbe mettere dei paletti, a un certo punto. A chi mi chiede se, un giorno, perderemo il controllo rispetto all’intelligenza artificiale io rispondo di no. Non ora, almeno. Nel nostro Istituto sviluppiamo un’intelligenza che accompagna l’uomo. Non si sostituisce alle persone, mantenendo un ruolo di supporto. Non tutti, però, hanno il nostro medesimo approccio. A maggior ragione fuori dai confini europei. Il vaso di Pandora è appena stato scoperchiato, sarà necessario mantenere un controllo su cosa succede».
Rizzoli, in conclusione, si spinge oltre. «Esco un po’ dalle mie competenze e dalle mie capacità, ma credo che l’istinto di sopravvivenza se caso prevarrà. In fondo, in passato siamo arrivati a un accordo sulla non proliferazione delle armi nucleari. Proprio perché in gioco c’era il nostro futuro. Arriveremo, non so bene come, a un accordo sull’intelligenza artificiale».