Tecnologia

L'intelligenza artificiale ci sta per caso sfuggendo di mano?

«I test esistenti sono diventati troppo facili e non possiamo più seguire correttamente l'evoluzione dell'IA» è l'allarme lanciato dal Center for AI Safety che ha quindi deciso di indire un concorso volto a creare il questionario più difficile del mondo da sottoporre ai sistemi di intelligenza artificiale
© Shutterstock
Red. Online
21.09.2024 13:30

«Il genere umano deve mantenere una buona comprensione delle capacità dei sistemi di intelligenza artificiale (IA). I test esistenti sono diventati troppo facili e non possiamo più seguire correttamente l'evoluzione dell'IA, né sapere cosa le manca per raggiungere il livello di un esperto». È il monito lanciato, in associazione con la start-up Scale AI, dal Center for AI Safety (CAIS) che ha lo scopo di minimizzare i rischi causati da questa tecnologia.

Proprio per riuscire a testare il livello raggiunto dalle varie forme di intelligenza artificiale presenti oggi sul mercato e comprenderne quindi appieno potenzialità e rischi, il CAIS ha deciso di lanciare un concorso intitolato «L'ultimo esame dell'umanità». Lo scopo? Creare il test più difficile al mondo per l'IA. Ecco allora che, fino al 1. novembre, chiunque può sottomettere il proprio test al CAIS. Per essere accettate, le domande devono essere difficili per i non esperti e non deve essere possibile risolverle mediante una rapida ricerca in rete. Da evitare, sottolinea sempre il Center for AI Safety, anche le domande relative ad armi chimiche, biologiche, radiologiche, nucleari o cyber. Non sono accettati nemmeno quesiti relativi alla virologia. Gli autori delle cinquanta domande più interessanti saranno premiati con 5.000 dollari ciascuno, mentre gli autori dei 500 successivi quesiti ritenuti particolarmente azzeccati riceveranno 500 dollari.

«La ricerca di test efficaci è molto pertinente», spiega a Le Temps Anne-Marie Kermarrec, professoressa in sistemi distribuiti su larga scala al Politecnico di Losanna (EPFL). «Garantire la robustezza dei modelli di IA e la loro correzione è primordiale nell'adozione di questi sistemi. Sappiamo che oggi non possiamo fidarci ciecamente di questa tecnologia». Kermarrec sottolinea quindi come «l'intelligenza artificiale progredisca a una grande velocità con lo scopo di imitare il ragionamento umano eseguendo compiti sempre più complessi». La professoressa dell'EPFL osserva poi che «per quanto attiene alla creatività – che si potrebbe definire come la capacità di produrre nuovi oggetti, per esempio artistici – l'IA è in effetti capace di produrre nuove opere d'arte come poesie, canzoni, musica e quadri».

Il caso di ChatGPT o1

La scorsa settimana OpenAI, cioè l’azienda che quasi tutti identificano con ChatGPT, il suo prodotto di punta, ha annunciato un nuovo modello di intelligenza artificiale, chiamato «o1». Esso si differenzia da quelli precedenti perché ha più di un passaggio per arrivare a rispondere alle nostre domande. Non più risposte meccaniche, quindi, ma ragionamenti da essere umano, usando quella che potremmo definire logica. Ecco allora che ChatGPT o1 scarta le risposte tecnicamente giuste ma in generale senza senso, per arrivare a ciò che davvero chiediamo. Nelle intenzioni, «OpenAI o1» dovrà quindi essere superveloce e onnisciente, ma anche capace di fare distinzioni di tipo qualitativo. E non soltanto in base ad algoritmi che si automodellano su richieste e ricerche precedenti.

«Questa versione si basa su un modello più complesso. Esso richiede più tempo per generare una risposta. Ciò non è comunque indice di una maggiore riflessione, ma il risultato dell'esecuzione di un numero più elevato di calcoli», spiega, sempre a Le Temps, Anne-Marie Kermarrec. «Non mi spingerei quindi a dire che che questi modelli di IA ragionano. Semplicemente fanno riferimento a una quantità maggiore di dati che usano in maniera diversa. La nozione di "ragionamento" mi sembra dunque una mossa di marketing; non dubito comunque che questi modelli, rispetto ai loro predecessori, possano gestire compiti più complessi. In sostanza, queste nuove forme di intelligenza artificiale sono più brave a imitare bene il ragionamento umano».

Una tecnologia che preoccupa

Il Center for AI Safety non è comunque l'unico a essere preoccupato di non riuscire più a seguire correttamente l'evoluzione dell'IA. Giovedì scorso, infatti, un gruppo di esperti dell'ONU ha sottolineato che lo sviluppo dell'IA e i rischi associati non possono essere lasciati nelle mani del mercato e ha perciò chiesto che gli Stati membri adottino dei sistemi che permettano una migliore cooperazione a livello mondiale. In concreto, il gruppo di esperti vorrebbe che venisse creato un gruppo internazionale di esperti di intelligenza artificiale ispirato al modello degli esperti ONU sul clima.

In questo articolo: