Quando il riconoscimento facciale diventa un’arma di guerra
Si può usare la tecnologia del riconoscimento facciale per
identificare con una buona precisione le persone. Lo sappiamo. Ma è possibile servirsi di questo metodo anche come parte di una strategia bellica. Le ultime informazioni
che provengono dal fronte russo-ucraino lo starebbero dimostrando. Parliamo di
algoritmi usati per identificare i soldati o gli infiltrati russi presenti in
Ucraina. O messi al servizio delle autorità di Mosca per dare rapidamente un
nome e un volto ai dimostranti che protestano contro la guerra nelle piazze russe.
La questione è stata sollevata qualche giorno fa, in un’inchiesta condotta da Reuters che ha mostrato come la
startup americana Clearview AI abbia
messo a disposizione le proprie competenze alle autorità ucraine,
garantendo loro l’accesso gratuito a un database biometrico che permette il
riconoscimento dei volti e il tracciamento dei dati. Gli scopi possono essere molteplici.
Ad esempio, identificare i morti caduti negli scontri: tramite il
riconoscimento facciale si risparmia ai cari la pena di dover vedere di persona
il corpo del defunto. Oppure servirsi di questi dati per tracciare e riunire le
famiglie dei rifugiati. Ma anche per identificare i soldati russi e gli infiltrati
nemici in Ucraina ai posti di blocco.
Oppure, come riporta Wired, vengono usati
dalle forze dell’ordine russe per raccogliere i dati di coloro che
mostrano il proprio dissenso nei confronti della guerra in Ucraina. Molto
spesso si tratta di giornalisti o di attivisti. La repressione non porterebbe, quindi,
soltanto su minacce fisiche e arresti ma correrebbe anche sul sottile filo
della rete informatica. In questo caso il sistema utilizzato è Sphere,
attivo all’interno dei mezzi pubblici e della metropolitana di Mosca, che permette
di identificare una persona in pochi secondi e di tracciare i suoi spostamenti.
Ed è in contatto con le banche dati della polizia, permettendo così l’identificazione
e l’arresto immediato delle persone ricercate. In questo caso, anche dei
manifestanti contro la guerra.
Una raccolta
controversa
Raccogliere dati biometrici e
schedare i dettagli personali degli esseri umani non è qualcosa che deve
passare come normalità. Molte volte, infatti, le startup che accumulano dati
privati per “allenare” i propri algoritmi al riconoscimento facciale, vengono
tacciate di violazione della personalità. C’è chi le accusa di prendere
dalla rete tantissime immagini senza consenso. In questi casi, le autorità per
la protezione dei dati personali contestano il data scraping (raschiatura
dei dati) o la “pesca a strascico”. Quest’ultimo concetto è molto vicino a
quello della fishing expedition (spedizione di pesca), che indica una
ricerca non specifica e su larga scala di informazioni – specialmente di quelle
incriminanti – o comunque dati sensibili. È una tecnica che, ad esempio, non
viene ammessa nelle inchieste internazionali. Le startup, dal canto loro,
tendono a replicare che la loro raccolta dati serve al perfezionamento
dell’algoritmo e che avviene in modo simile alla raccolta di
informazioni delle ricerche su Google.
Dati sensibili e
guerra
Qualsiasi sia la loro provenienza o lo scopo per cui vengono impegnati, l’uso
di dati sensibili richiede la massima attenzione e prudenza. E, in tempo di
guerra, ancora di più del dovuto. Per avere un quadro più chiaro su una
questione così delicata abbiamo chiesto informazioni sull’uso di questi
algoritmi ad Alessandro Trivilini, responsabile del Servizio d’informatica
forense della SUPSI, che 2017 al 2021 ha rappresentato la Svizzera nel
programma intergovernativo COST di ricerca scientifica, coordinando il gruppo
di ricerca europeo sul riconoscimento facciale in ambito sicurezza.
Trivilini comincia con una premessa: «Questo discorso parte dal presupposto che
dobbiamo staccarci dall’emotività che comporta questa guerra. Parlo di
competenza tecnica nell’uso della tecnologia, senza dare un giudizio sul buono-cattivo
o giusto-sbagliato». Come ci spiega da subito il nostro interlocutore,
nell’ambito di un conflitto bellico i problemi e i rischi sono molteplici e derivano
dal fatto che non si sa chi si celi veramente dietro le banche dati o con quale
scopo vengano raccolte le informazioni.
Algoritmi allenati dai social
Si è parlato molto del tema dell’identificazione facciale, che qui troviamo declinato
all’interno di una guerra. Ma come spiegarlo in modo chiaro? Partiamo dall’inizio,
dal concetto puro e semplice del “riconoscimento” e di come questo avvenga. «Si
tratta nella maggior parte dei casi di applicazioni che contengono procedure
informatiche addestrate a riconoscere i volti delle persone» spiega Trivilini,
illustrandoci questa tecnica: «È un vero e proprio allenamento a cui viene
sottoposto il software. In una prima fase gli si fa riconoscere l’immagine di
un viso “pulito” senza nulla attorno, come l’immagine riflessa da uno specchio.
Si dice all’algoritmo che si tratta di un volto, lo si “tagga” come volto
umano». Quindi il sistema da lì impara a riconoscere le immagini simili. «Poi
inizia l’apprendimento automatico nel tempo: più dati, più volti. L’algoritmo di
riconoscimento facciale diventa molto bravo e viene inserito nelle App
specifiche». Un fattore di rischio però, mette in guardia Trivilini, sono i
social, le cosiddette «fonti aperte». Gli algoritmi che prendono i dati dalle
fonti aperte diventano ancora più bravi a identificare i visi. «Devono
infatti riconoscere non solo i volti “puliti” – detti anche “senza rumore” – ma
anche quelli in situazioni ordinarie della vita quotidiana: immagini non
nitide, in movimento, con altre persone vicino, oggetti sullo sfondo. Questo
porta a ottenere un buon livello di riconoscimento facciale». E spesso questa
raccolta dati ci si presenta sotto la forma di un gioco: «Andavano molto di
moda queste applicazioni o catene sui social, dove ti devi riconoscere in una
foto o dove vuoi vedere il tuo viso invecchiato. E per farlo metti a
disposizione della rete la tua faccia, che è un bene molto prezioso, di valore.
Questi giochi non sono altro che raccolte di dati sotto forma di divertimento, sono
mezzi che consentono di addestrare meglio gli algoritmi». Anche in questo
contesto, molto semplice e “amichevole”, bisogna prestare attenzione, spiega
Trivilini, perché «identificare i volti significa poter incrementare e
arricchire un archivio che magari sta classificando volti e informazioni già da
tempi non sospetti».
«Come una cyber arma»
Ma un occhio particolare va prestato quando questo speciale tipo di tecnologia
incontra le strategie di un conflitto bellico. Le applicazioni e i database
possono sì fornire un grande aiuto dal punto di vista umanitario. Ad esempio, per
identificare i caduti in battaglia, e in questo caso servono gli algoritmi
“allenati”. Sia per riconoscere un volto tumefatto, rovinato dagli scontri
a fuoco, sia per riuscire a riunificare le famiglie, anche laddove si tratti di
visi ripresi in condizioni di “rumore”, con confusione sullo sfondo o in
movimento. Ma c’è anche un altro aspetto, precisa Trivilini, al quale va
tributato il giusto peso e un’attenzione accresciuta. Si tratta dell’uso di
questi dati a fini di identificazione militare. È un mezzo che può avere un
grosso peso, soprattutto se usato per scopi meno nobili: «È come un virus, un
trojan, che viene introdotto nello smartphone di qualcun altro per riconoscerlo,
tracciarlo, o per ascoltare quello che dice» ci spiega Trivilini. Come sta
accadendo nei due casi di cui abbiamo parlato all’inizio. Un mezzo che, in un
contesto bellico, può rivelarsi dannoso come un’arma. Se non come due. «Il riconoscimento
facciale in tempi di guerra deve essere considerato tecnicamente una
cyber-arma» specifica il nostro interlocutore. E aggiunge: «Immaginiamo la
potenza di unire le armi che sparano al tracciamento informatico delle
persone e all’immagine del loro volto identificato. Si tratta di una tecnologia
che consente di fare – potenzialmente – dei danni molto gravi». In pratica, poter
identificare con certezza il viso di una persona in tempo di guerra è come
puntargli addosso il mirino di un fucile. «Riconoscere una persona in un
contesto bellico ha la stessa potenzialità tecnica di un’arma: può dare al
nemico delle informazioni molto rilevanti e personali».
A fin di bene o uso criminale?
Non sembra esserci molto spazio per le mezze misure nell’utilizzo dei
cyber-dati, soprattutto all’interno dei conflitti. C’è infatti il rischio che gli elementi finiscano nelle mani sbagliate o vengano usati per scopi deprecabili,
come ci spiega il nostro interlocutore. «Il rischio è che una persona o
un’associazione usi ingenuamente queste applicazioni durante la guerra a fin di bene ma, non
conoscendo chi l’ha sviluppata, potrebbe diventare inconsapevolmente un mezzo,
un ambasciatore di questa raccolta dati. Potrebbe esserci dietro un’azienda con
interessi poco nobili, che mette gratuitamente a disposizione un’App per accumulare
informazioni che sul campo non potrebbe prendere. La persona raccoglie così dati
sensibili senza conoscere il perimetro cibernetico dentro il quale si muove».
Si parla anche di spionaggio o di intelligence. «Ci sono queste speculazioni
con questo tipo di tecnologia», Trivilini mette in guardia: è un canale nobile
ma molto delicato. «Ecco perché questi algoritmi,
avanzati, importanti, autonomi, di tracciabilità dei dati biometrici delle
persone, devono sottostare a delle regole per poter essere impiegati anche da
un’associazione umanitaria, anche a fin di bene, affinché non scatti lo
spionaggio».
Regole e leggi
Il primo tentativo a livello europeo di introdurre delle regole in materia risale al 2018, come ci spiega Trivilini. «Andavano messi dei freni alle potenzialità di sviluppo dell’intelligenza artificiale per il riconoscimento facciale. Proprio perché non c’erano regole sulla privacy per limitare l’utilizzo di questi dati, pensando anche alla criminalità informatica o agli usi borderline che ne possono essere fatti». La Comunità europea ha quindi stabilito delle leggi e frenato la raccolta a strascico dei dati personali, che prima poteva avvenire liberamente. «È anche una questione che tocca i diritti umani» specifica Trivilini. E in molti sembrano sentire l’esigenza di una regolamentazione in questo campo. «Anche la Cina» ci conferma il nostro interlocutore, «dove la nuova legge della protezione dei dati ha alla base il 90% della stessa definizione di dato personale di quella europea e di quella svizzera. Stiamo assistendo a un allineamento a livello internazionale». Stabilire delle regole per chi maneggia questi dati altamente sensibili e preziosi è importante, continua Trivilini, i rischi possono essere dietro l’angolo, soprattutto in un contesto bellico.