Intelligenza artificiale, «Nessun Terminator, ma attenti al Grande Fratello»
Matematico, crittografo, filosofo. E tanto, tanto più. Alan Turing, inglese vissuto nella prima metà del 20. secolo, è considerato uno dei padri della scienza informatica, del computer e sì, anche dell'intelligenza artificiale. Un genio assoluto che nel 1950 ideò un test per definire la capacità di una macchina di esibire un'intelligenza paragonabile (o, meglio, indistinguibile) da quella di un essere umano. Come? Turing aveva proposto un semplice percorso: far dialogare una persona, per iscritto e tramite degli schermi, con un altro essere umano e con una macchina. Il volontario non riesce a distinguere macchina da essere umano? Allora l’intelligenza artificiale ha superato il test. Nelle scorse settimane aveva fatto discutere il caso di Blake Lemoine, l'ingegnere di Google che, lavorando a stretto contatto con un'intelligenza artificiale dell'azienda, LaMDA, ha creduto di scorgere in lei un essere senziente. E negli ultimi mesi a infiammare il web vi sono stati anche GPT-3 e DALL-E 2. Altre due intelligenze artificiali divenute famose perché in grado, la prima, di costruire lunghi testi (interi romanzi!) di senso compiuto a partire da una semplice frase immessa dall'utente. O di generare, la seconda, immagini di qualsiasi tipo e stile, anche qui solamente grazie a un semplice input umano.
È un periodo (dovremmo parlare di anni), insomma, di grande fermento e sviluppo in campo informatico. Ma cosa rende tale un'intelligenza artificiale (che da qui, per comodità, definiremo "AI")? Davvero è corretto parlare di "intelligenza"? E quali sono i pericoli dello sviluppo sconsiderato di tali macchine? Ne abbiamo parlato con il prof. Andrea Rizzoli, direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI) e Alessandro Facchini, docente-ricercatore senior presso IDSIA USI-SUPSI.
Pappagallo statistico
Partiamo proprio da GPT-3 (Generative Pre-trained Transformer 3) e DALL-E 2. Lo abbiamo capito. Sono AI. Ma come funzionano? E davvero sono capaci di pensare? «GPT-3 è un sistema per il processamento di linguaggio naturale (Natural Language Processing) ed è basato su reti neurali profonde dette transformer models. DALL-E, invece, è un sistema basato su Generative Adversarial Networks, una particolare classe di reti neurali profonde», spiega Rizzoli. «In particolare, i sistemi di Natural Language Processing sono basati su proprietà statistiche del linguaggio stesso e sono addestrati con una mole di dati imponente. Non solo il contenuto intero di Wikipedia, ad esempio, ma tutto quello che riescono a recepire su Internet. Questi algoritmi sono caratterizzati da svariati miliardi di parametri, e per addestrarli, per ottenere i risultati che noi vediamo, hanno bisogno di una mole di dati mostruosa, ma anche di un'enorme quantità di energia. Per GPT-3, si stima sia stato utilizzato un milione di dollari di elettricità per l'addestramento. Il vantaggio è che una volta formati, il semplice utilizzo non richiede tutta questa energia».
Ma attenzione: il completamento dell'addestramento non porta a una capacità, per la macchina, di agire in totale autonomia. «Bisogna considerare che parliamo di algoritmi basati su correlazioni statistiche: non fanno che ripetere quello che hanno sentito dire. È vero: dato l'input, vanno avanti e generano storie e immagini che possono avere senso. Ma è tutto basato sull'input da noi fornito». Rizzoli si aiuta con un esempio: «Sono algoritmi simili a quelli utilizzati dai traduttori automatici. Questi oggi funzionano molto bene perché, a differenza di quelli delle generazioni precedenti (che cercavano solamente di utilizzare le regole grammaticali e sintattiche per fare una traduzione), sono basati sulla statistica. Su tutto ciò che trovano su internet. E imparano così modi di dire, espressioni idiomatiche, che non sono contenute in un libro di testo. È un processo che vediamo anche sui telefoni: quando iniziamo a scrivere una frase, i suggerimenti che appaiono per il suo completamento sono basati su simili algoritmi statistici».
Insomma, c'è una bella differenza tra il saper fare e il saper pensare. «Quanto prodotto da queste AI dipende molto dalla base di dati utilizzata per addestrarle e il tipo di correlazione che si scopre fra questi dati», specifica Rizzoli. «Potremmo definirle insomma "pappagalli statistici": ripetono quanto sentito dire. Ciò genera anche molti errori, come l'esempio clamoroso di GPT-3 che, alla domanda "Cosa fare in caso di infarto?" risponde, tra alcune cose giuste, di tossire. Come se tossire potesse aiutare in caso di attacco cardiaco. Non è così, ma qualcuno lo ha scritto sul web e per questo l'algoritmo lo inserisce nelle proprie risposte».
Già, non sempre tutto va per il verso giusto con queste AI. «A una domanda dell'essere umano, questi algoritmi rispondono con una serie di connessioni che assomigliano a un ragionamento. Ciò può essere in alcuni casi "causale", in altri no. Va poi considerato che noi, il pubblico, vediamo solitamente solo i buoni risultati, non cosa è andato male. Solo poca gente ha accesso alla macchina. E spesso, avendo la possibilità di giocare con loro, si possono spingere questi modelli a generare frasi senza senso».
Facchini ci spiega poi: «Se lo strumento viene dato in mano a qualcuno un po' più critico, è quindi facile rendersi conto che siamo lontani da una vera intelligenza. Test facilmente superabili da un bambino o da animali non sono ancora eseguibili da degli algoritmi. È vero, AI come GPT-3 possono essere in grado di passare test linguistici simili a quello di Turing, ma molto dipende da quanto tempo diamo. Con dieci secondi di dialogo, 8 persone su 10 magari possono essere tratte in inganno e scambiare l'AI per un essere umano. Ma con due ore di dialogo è probabile che la statistica si abbassi di molto e che solo una persona su 10 pensi davvero di stare dialogando con un altro essere umano». Senza considerare che, benché ancora praticato a 70 anni dall'ideazione, il test ideato dal matematico britannico non è privo di pecche e, anzi, è stato soggetto a numerose critiche. «Il test di Turing è basato sull'inganno», continua Facchini. «Essendo difficile dare una definizione condivisa di intelligenza, si è optato per un test di carattere comportamentale. Ma un simile esperimento è appunto un inganno, non fornisce davvero una risposta alla domanda se la macchina sia o meno intelligente: ci dice solo se è in grado di far credere di esserlo a colui che osserva. Parlare di intelligenza, e ancor più di coscienza, è fuorviante». Al momento, continua poi Rizzoli, «una macchina non è ancora in grado di pianificare, di partire da un'idea e, tramite una serie di azioni in sequenza, raggiungere un obiettivo molto più in là nel tempo. Si tratta di processi finora eseguiti solo su esplicita programmazione umana, non in modo spontaneo. Non esiste alcuna "teleologia" della macchina».
Le AI, insomma, per quanto performanti, soffrono ancora il confronto con una vera intelligenza, sia essa umana o animale. Facchini lo evidenzia con un esempio, citando il filosofo ed esperto di etica informatica Luciano Floridi: «Floridi definisce la questione con un esempio calzante. Prendiamo un’azione per noi facile, come il lavare i piatti: noi riusciamo in genere a fare tutto in modo corretto e senza rompere nulla. Pensiamo ora di voler costruire un robot in grado di eseguire la stessa azione, a casa nostra (e quindi nel nostro stesso ambiente e condizioni). È qualcosa di troppo complesso per una macchina. Per questo si è creato un ambiente chiuso e semplice, quello della lavastoviglie, costruito appositamente perché funzioni in modo automatizzato. Floridi dice dunque che fintantoché il problema viene ridotto a un ambiente strutturato simile a quello della lavastoviglie, allora potremo trovare un algoritmo in grado di risolverlo. In caso contrario, la complessità del mondo non permetterà di creare un'AI in grado di affrontare tali difficoltà». Una problematica che affligge, per fare un altro esempio, il settore dei veicoli a guida autonoma. «Se il nostro fosse un mondo popolato solamente da tali veicoli, con protocolli di comunicazione chiari e ambienti limitati, le cose funzionerebbero», evidenzia Rizzoli. «In autostrada, dove le interazioni non controllate sono poche, una tecnologia simile potrebbe avere successo. Ma le cose cambiano, appunto, appena si entra in sistemi più complessi. In città, dove bisogna tener conto di diverse imprevedibilità (si pensi ad esempio ai pedoni), le cose sono forzatamente più problematiche».
Attenzione al Grande Fratello
E ancora non si è parlato dei pericoli. Già, perché l’idea che un giorno la tecnologia ci si possa ritorcere contro fa ormai parte dell’immaginario collettivo, anche grazie a una serie di film cult. Si pensi ad esempio a Matrix, Terminator, Blade Runner. Ma le vere insidie della tecnologia incontrollata sono altri, ci spiegano i due esperti: «Il pericolo che si corre nello sviluppo di potenti AI riguarda tematiche già affrontate in passato con Google, Facebook e compagnie simili. Parliamo dell'utilizzo di dati in maniera non regolata e chiusa. Un utilizzo che non rende nulla alla comunità. Corriamo il rischio di vederci sottrarre ogni privacy, violare la nostra sfera personale, ed essere impotenti al riguardo. Se tutto viene lasciato nelle mani delle logiche di mercato, un uso delle AI non attento ai principi di protezione della sfera privata può portare a gravi distorsioni», spiega Rizzoli.
Insomma, invece di temere l’insorgere di robot armati, bisognerebbe fare attenzione al “Grande Fratello” (personaggio fittizio del romanzo 1984 di George Orwell che tutto vede e tutto sa grazie all’uso capillare di telecamere)? «Sì, i pericoli delle AI volgono più verso simili scenari», risponde Rizzoli, che insieme al collega cita un’altra opera: «In Minority Report si tenta di prevedere un crimine prima che esso si verifichi. Algoritmi simili sono già stati testati. Pattuglie vengono inviate in zone dove, secondo le AI, si sarebbe potuto presto consumare un crimine. Ma tali algoritmi possono contenere dei pregiudizi, produrre discriminazioni. E la polizia schierata sempre negli stessi quartieri genera antagonismi e conflitti. L’invio stesso di pattuglie può portare a più crimini. È una sorta di self fulfilling prophecy (profezia che si autoadempie, ndr)».
Come evitare tutto ciò? Serve etica. «Pensiamo alla biologia o alla medicina, regolate dalla bioetica. Anche per la tecnologia e l’informatica serve qualcosa di simile: codici, regole generali, che disciplinino lo sviluppo e l’utilizzo delle AI», spiega Facchini fornendo un altro esempio. «Supponiamo che, in campo sanitario, ci si appoggi a un’AI per le strategie da affrontare nel curare un tumore. Cosa fare se l’intelligenza artificiale, teoricamente più accurata dell’essere umano, fornisce un parere discordante da quello del medico? Come procedere? Quando si è moralmente tenuti a seguire la scelta proposta da un’AI senza che se ne capisca il “ragionamento”? Si tratta di dilemmi etici che vanno affrontati e regolati». Perché seguire ciecamente gli algoritmi intelligenti non è la via giusta. «L'intelligenza artificiale deve essere uno strumento di aiuto, ma serve l'interpretazione del medico, non si può delegare tutto alla macchina. L'uomo deve essere sempre in controllo. Ciò che bisogna capire è proprio come muoversi quando si utilizza una AI come partner».
E non è da sottovalutare, secondo Rizzoli, anche la questione del mercato del lavoro: «Una serie di professioni sarà sempre più sostenuta dall'intelligenza artificiale. La rivoluzione industriale in corso cambierà il nostro modo di lavorare. La speranza è che ciò porti a dei miglioramenti che ci consentano di concentrarci su mansioni più qualificanti evitando lavori noiosi e ripetitivi. E che possibilmente non vada a scapito del lavoratore, dato che alcune professioni tenderanno a sparire, sostituite dalle macchine. Come successo nelle passate rivoluzioni industriali, dopo i grossi problemi iniziali, servono delle forti riorganizzazioni sostenute dall’opera dei sindacati: i diritti dei lavoratori vanno protetti».
E il futuro delle AI? Cosa ci riserva? «Fare previsioni è difficile», risponde Rizzoli. Ciò che si può dire con un certo margine di fiducia è che gli attuali algoritmi di processamento del linguaggio (come GPT-3 o LaMDA) non faranno molto più di quanto già visto oggi, finché funzioneranno con questi strumenti. E se vogliamo parlare più in generale di “intelligenza” artificiale, credo che siamo ancora veramente molto lontani da quella umana».