Così l'intelligenza artificiale plasma, già, la guerra
In Israele lo chiamano «Habsora»: il Vangelo. Sviluppato per l'Unità 8200, l'intelligence militare di Tel Aviv, Habsora è un software di apprendimento automatico – machine learning – che, costruito sulla base di centinaia di algoritmi predittivi, è in grado di determinare le probabili coordinate di tunnel o silos di razzi costruiti da Hamas. Un altro programma, chiamato Lavender, suggerisce alle Forze di difesa israeliane (IDF) le probabilità che un palestinese sia membro di un gruppo militante. Come funzionano? Nulla di magico. Gettati «in pasto» all'intelligenza artificiale (AI), moli di dati raccolte sull'arco di decenni – da intercettazioni di chat e telefoni a filmati satellitari – vengono rielaborate per fornire nuovi obiettivi militari. Al centro di due indagini pubblicate giorni fa da New York Times e Washington Post, l'utilizzo da parte di Israele dell'AI nella guerra a Gaza apre a una serie di quesiti a più ampio respiro. In che modo l'intelligenza artificiale è già penetrata nei conflitti contemporanei? Come verrà applicata in futuro? E come assicurare un utilizzo etico e rispettoso del diritto internazionale? Ne abbiamo parlato con Mauro Gilli, ricercatore associato al Politecnico di Zurigo ed esperto di tecnologia militare.
Comprendere l'AI
Un passaggio importante per comprendere perché l'intelligenza artificiale sia utilizzata in guerra è, innanzitutto, capire come essa lavori. «Spesso, quando si parla di AI, se ne presentano vantaggi o pericoli, sorvolando su come funzioni davvero. Il risultato è che l'intelligenza artificiale rischia di essere vista come qualcosa di mistico», premette Gilli. «In realtà il suo funzionamento è abbastanza semplice». Nelle sue declinazioni d'intelligence, come quelle utilizzate da Israele, l'AI «analizza grandi quantità di dati per svolgere, sostanzialmente, due tipi di lavoro. Da una parte il pattern recognition, l'identificazione – cioè – di ricorrenze che possano fornire informazioni rilevanti dal punto di vista militare». Dall'altra, «l'anomaly detection, il rilevamento di anomalie, che – per ragioni esattamente opposte all'identificazione di ricorrenze – diano informazioni altrettanto importanti».
Andiamo più in dettaglio. Da dove vengono questi dati? «Generalmente da una serie di sensori, posizionati su satelliti, droni o a terra. Questi possono essere di vario tipo, come quelli elettromagnetici (dispositivi elettro-ottici, termici, infrarossi, laser o radar) o acustici (microfoni)». Altri dati, poi, cadono nelle mani dell'intelligence attraverso il mondo digitale, «come gli scambi su WhatsApp o la geolocalizzazione dei cellulari». Tutto questo materiale, continua Gilli, «viene consegnato a strumenti di machine learning che sfruttano algoritmi per svolgere i due compiti già citati». Nel caso dell'anomaly detection, l'AI lavora per «identificare qualcosa che, a livello statistico, è significativamente diverso da tutto il resto, un'anomalia appunto». Gilli cita il caso dei palloni aerostatici che, comparsi improvvisamente nei cieli americani nel 2023, avevano posto in allerta il Pentagono. Ma di esempi ce ne sono tanti. «L'improvvisa identificazione, da parte di sensori termici, di un oggetto che emette calore in una notte altrimenti buia rappresenta un'informazione di potenziale interesse». Il grande vantaggio del machine learning, sottolinea l'esperto, «è che lavora a una sensibilità nemmeno immaginabile per occhio e cervello umano. Può, insomma, percepire anomalie che un operatore esperto rischierebbe di perdere».
Lo stesso ragionamento vale per il pattern recognition, spiega Gilli. «Prendiamo il caso israeliano. Una profilazione statistica della messaggistica di WhatsApp permette di abbinare a catene di scambi ai quali partecipa anche un membro accertato di Hamas, una probabilità che anche il mittente iniziale abbia legami con il gruppo islamista». Tutto può essere usato come indicazione di ricorrenze: «Frequenza dei messaggi, orario di spedizione, tempistica rispetto a un attacco compiuto da Hamas. Se il profilo di utenza è molto simile a quello di un capo del gruppo, aumentano le probabilità che anche il soggetto in questione sia un leader di Hamas».
Evitare errori
Si tratta, ovviamente, di semplificazioni: il processo per la definizione di un bersaglio va al di là delle attività su un servizio di messaggistica. Certo è che l'utilizzo di AI, sempre nel caso israeliano, ha portato a una grande velocizzazione del processo di designazione degli obiettivi militari. Attivata già nel conflitto israelo-palestinese del 2021, l'intelligenza artificiale Habsora permette – come spiegato dall'allora leader dell'IDF Aviv Kohavi – di generare 100 obiettivi al giorno, contro i 50 inseriti nella banca dati dell'esercito israeliano, tramite lavoro condotto da analisti umani, nel giro di un intero anno. Una vera e propria impennata che ha causato l'allarme di esperti di etica e di diritto internazionale umanitario. Andando oltre il caso israeliano, l'intelligenza artificiale è adatta all'uso bellico? Secondo Mauro Gilli è tutta questione di come la si usa. «Prendiamo il machine learning nei sistemi di difesa antiaerea. La sua applicazione ha drasticamente aumentato l'efficacia di queste armi e ridotto significativamente i casi di "fuoco amico", l'abbattimento di aerei delle proprie forze armate. Con questi algoritmi, la distruzione di veicoli alleati o commerciali avviene raramente e in casi, come quello di dicembre in Russia, in cui questi sistemi di difesa sono obsoleti e utilizzati da personale poco addestrato o appena dislocato nell'area». Lungi dall'elevare l'intelligenza artificiale a un mezzo infallibile e dallo sminuire l'importanza delle domande etiche sull'AI, sottolinea Gilli, «utilizzo e risultati sono principalmente determinati da scelte politiche. Il livello di probabilità che un bersaglio militare si riveli tale può essere affinato, così come può essere ridotto il margine di errore accettabile». Basta, insomma, stringere le maglie della "rete algoritmica", così da non catturare, e colpire, i bersagli sbagliati. L'uomo, insomma, rimane fondamentale. Non per l'affidabilità (o inaffidabilità) dell'AI. Ma perché essa, come strumento, sia utilizzato nei limiti dell'etica. «È totalmente legittimo sottolineare l'importanza del ruolo umano nelle decisioni di guerra. Ma, contemporaneamente, bisogna evitare, con questa argomentazione, di attribuire all'AI le responsabilità di eventuali errori o scelte politiche discutibili».
Passato e futuro
L'applicazione del machine learning nel contesto bellico è, in ogni caso, tutt'altro che recente. «Pur con i limiti tecnologici dell'epoca, sistemi simili sono stati utilizzati sin dagli anni Cinquanta-Sessanta. La guerra sottomarina, ad esempio, ha portato lo sviluppo di sonar che funzionano, sostanzialmente, come le attuali applicazioni di riconoscimento musicale, quali Shazam. Raccolte informazioni dall'ambiente grazie a un sensore, un algoritmo con una banca dati di ritorni acustici permetteva, già allora, di determinare se il segnale catturato appartenesse a sottomarini sovietici o americani». Similmente, l'applicazione di algoritmi «ha permesso all'aeronautica americana di effettuare ingaggi a lunghissimo raggio, impossibili fino alla guerra del Vietnam, quando i caccia dovevano ancora confermare l'identità di altri velivoli tramite il riconoscimento visivo».
Insomma, sottolinea l'esperto, come è successo in passato, «è ragionevole pensare che il machine learning e l'AI possano funzionare bene, in campo militare, anche in futuro».
A proposito di futuro. In quali campi della guerra verrà, sempre più, utilizzata l'AI? «Sarà importante nello sviluppo di sistemi d'arma e, da un punto di vista logistico, nella manutenzione dei mezzi. Immagino, ad esempio, un algoritmo che riesca a predire il momento ottimale per rimpiazzare componenti cruciali per il funzionamento di veicoli militari. Ma giocherà un ruolo centrale – come già attualmente, del resto – soprattutto nell'intelligence».