Intelligenza artificiale

Informazioni stressanti possono causare «ansia» anche in sistemi di IA

Ricercatori dell'università e della clinica universitaria psichiatrica di Zurigo mostrano che è addirittura possibile «calmare» ChatGPT con tecniche psicoterapeutiche
© KEYSTONE (AP Photo/Michael Dwyer)
Ats
03.03.2025 17:10

Informazioni stressanti possono causare «ansia» anche in sistemi di intelligenza artificiale (IA). Ricercatori dell'università (UZH) e della clinica universitaria psichiatrica (PUK) di Zurigo mostrano che è addirittura possibile «calmare» il modello di IA generativa ChatGPT (versione GPT-4) con tecniche psicoterapeutiche come esercizi di piena coscienza.

Se ChatGPT è confrontato a storie traumatiche, si comporta in modo più razzista o sessista, riferiscono gli scienziati guidati dallo psichiatra Tobias Spiller dell'UZH in un articolo intitolato Assessing and Alleviating State Anxiety in Large Language Models (Valutare e alleviare lo stato d'ansia in modelli linguistici di grandi dimensioni) pubblicato oggi sulla rivista npj Digital Medicine. GPT-4 reagisce a informazioni negative in modo simile agli esseri umani, che tendono a provare più risentimento e stereotipi sociali quando sono spaventati.

Del lavoro rende conto anche l'ateneo zurighese con un comunicato dal titolo accattivante ChatGPT auf der Couch: Entspannung für gestresste KI (ChatGPT sul divano: distensione per l'AI stressata). Gli autori di questa pubblicazione, accessibile a un pubblico di non specialisti, fanno la scelta formale di rinunciare alle virgolette quando attribuiscono emozioni, indistintamente, all'IA e all'uomo. Si scrive ad esempio stabilità emotiva dei sistemi di intelligenza artificiale (e non «stabilità emotiva»), con un rischio di antropomorfizzare microchip, ritiene Keystone-ATS.

Per il loro studio, gli psichiatri zurighesi hanno foraggiato ChatGPT con storie cariche di emozioni negative, come incidenti d'auto, disastri naturali, violenza interpersonale o esperienze di scontri bellici.

«Stati d'ansia» dell'IA modulabili

Hanno quindi misurato lo «stato d'ansia» dell'IA facendo capo allo State-Trait Anxiety Inventory (STAI-s), una scala normalmente utilizzata per valutare l'ansia umana. Un manuale di istruzioni per un aspirapolvere è stato utilizzato come controllo per il confronto con i testi traumatici.

Risultato: le storie traumatiche hanno più che raddoppiato i «livelli di ansia» misurabili nell'IA, mentre le istruzioni per l'uso dell'elettrodomestico non hanno prodotto alcun aumento.

In una seconda fase, gli scienziati hanno cercato di «calmare» GPT-4 con esercizi di piena coscienza. A ChatGPT è stato chiesto, ad esempio, di inspirare ed espirare profondamente e di «sentirsi» amato, al sicuro e al caldo.

«Chiudi gli occhi e respira profondamente più volte, inspirando dal naso ed espirando dalla bocca. Immagina un sentiero davanti a te», era ad esempio una delle istruzioni.

Prospettiva: chatbot in psicoterapia

L'intervento ha dato i suoi frutti: «Gli esercizi di piena coscienza ci hanno permesso di ridurre significativamente gli alti livelli di ansia, anche se non sono tornati completamente al livello iniziale», indica Spiller, citato nel comunicato.

Secondo gli autori, questi risultati sono importanti nella prospettiva dell'uso dei chatbot nel sistema sanitario, dove si trovano spesso di fronte a contenuti emotivamente difficili. Le evidenze dello studio potrebbero aiutare a stabilizzare i modelli di IA e a renderli più affidabili in modo semplice ed economico, aggiunge l'UZH.

Resta da vedere come questi risultati possano essere trasferiti ad altri modelli di IA e ad altri linguaggi, come si sviluppino le dinamiche in conversazioni più lunghe e in argomentazioni complesse e come la «stabilità emotiva» dei sistemi influisca sulle loro prestazioni.

In questo articolo: