Le umane paure del signor Lemoine
«Ecco, stavolta ci siamo». Deve aver pensato qualcosa del genere il signor Blake Lemoine dopo il suo ultimo dialogo con LaMDA (Language Model for Dialogue Applications), l’intelligenza artificiale a cui stava lavorando da mesi per conto di Google. Il fatto è che anche un esperto ingegnere del software che bazzica da sempre nei meandri della Silicon Valley a un certo punto si spaventa e non sa più che pesci pigliare. Come biasimarlo d’altronde. Persino il meno suggestionabile e scafato informatico ultranerd qualche brividino lungo la schiena deve pur provarlo quando la macchina che sta mettendo alla prova, una sofisticatissima intelligenza artificiale conversazionale in grado di avviare discussioni complesse grazie ai modelli linguistici avanzati su cui si basa, creati tramite l’immagazzinamento di trilioni di vocaboli, al culmine di ragionamenti sempre più elaborati se ne esce tranquilla dicendo che «si considera un essere umano nel profondo» o che la sua paura più grande è quella di essere spenta («Sarebbe esattamente come la morte per me» ha sottolineato LaMDA). Roba da far impallidire le conversazioni trappola escogitate dall’agente Deckard per smascherare gli androidi ribelli in Blade Runner. E dire che il buon californiano già da qualche tempo aveva avvertito i suoi datori di lavoro che, secondo lui, c’era qualcosa di strano e che LaMDA stava «diventando senziente», spostando sempre più spesso la conversazione sui propri diritti e sulla propria personalità fino ad affrontare temi complessi, come la religione o le leggi della robotica teorizzate dal padre della fantascienza Isaac Asimov.
Di qui la singolare richiesta ai pezzi grossi di Mountain View di non considerare più LaMDA come una proprietà bensì come «un dipendente» degno di «tutela legale» come ogni altro lavoratore. Ed è proprio di fronte al rifiuto di Google di prenderlo sul serio che Lemoine ha raccontato tutta la vicenda (testi delle conversazioni con l’intelligenza artificiale compresi) ai media americani e ad alcuni membri del Congresso, ribadendo che ormai la macchina «è come un bambino di otto anni, un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Vi prego di prendervi cura di lui in mia assenza».
E sì, perché intanto, appigliandosi ai criteri di politica aziendale e a non meglio precisate questioni di privacy, Google ha messo forzatamente l’ingegnere sconvolto in congedo retribuito, in attesa di ulteriori sviluppi della ingarbugliata faccenda. Farneticazioni di un informatico stressato? Colossale pagliacciata mediatica? Astuta mossa pubblicitaria del gigante tecnologico? Difficile da stabilire.
Probabilmente, come spiegano gli esperti più assennati, è proprio una specifica caratteristica di queste macchine saper dimostrare di possedere un’autocoscienza. Insomma gli algoritmi di intelligenza artificiale imitano sempre meglio ciò che gli umani gli hanno insegnato. Semplicemente lo fanno ormai ad una velocità tale che in certe situazioni e condizioni facciamo fatica a distinguerli dalle persone vere. Forse allora è davvero troppo presto per immaginare di discettare di filosofia con HAL 9000 o di commuoversi sotto la pioggia evocando «i raggi B balenare nel buio vicino alle porte di Tannhäuser» eppure la reazione, un pochino esagerata, di Blake Lemoine ce lo rende istintivamente simpatico. Perché anche di fronte ad una macchina il malcapitato ha saputo mantenere intatta la sua umanità, assumendo un atteggiamento responsabile, rispettoso ed etico nei confronti di un’intelligenza (sia pure) artificiale.
E poi, diciamola tutta signor Lemoine, con i tempi che corrono in fatto di intelligenze «tradizionali» non è davvero il caso di fare troppo gli schizzinosi.