Tecnologia

Foto di ragazzine nude con un'app: il deepfake a portata di tutti

Spopola l'uso di BikiniOff, in grado di spogliare le persone, anche minorenni, grazie all'intelligenza artificiale – Alessandro Trivilini della SUPSI: «Fake sempre più credibili, serve collaborazione tra polizia ed esperti di tecnologia»
Michele Montanari
18.04.2023 14:30

Sul web si trova già di tutto, dalla cantante Cristina D’Avena all’attivista Greta Thunberg. Nude, spogliate dall’intelligenza artificiale. I deepfake non sono certo una novità, ma questa volta, per lasciare senza veli una persona, non servono particolari competenze con programmi di editing. Basta caricare una foto e il gioco è fatto. Un gioco pericolosissimo. Già, perché l’app BikiniOff può essere usata anche per creare immagini di minorenni completamente nude. Oltre alla questione della privacy, si pone un evidentissimo problema di pedopornografia. Prima di approfondire l’argomento con Alessandro Trivilini, responsabile del servizio informatica forense alla SUPSI, vediamo che cos’è BikiniOff.

L'app su Telegram, è boom tra i giovani

BikiniOff è un’applicazione sviluppata in Estonia che, nel 2022, si è diffusa in tutto il mondo registrando numeri record di utilizzi, specialmente tra i giovani. Grazie al progresso dell’intelligenza artificiale, è in grado di creare foto estremamente realistiche di persone nude, partendo da un’immagine caricata dall’utente. Per accedere all’app basta avere Telegram sul proprio smartphone, quindi anche i minorenni possono usarla. BikiniOff, al primo utilizzo, avvisa che la foto di prova è gratuita, mentre per le altre bisogna sottoscrivere un abbonamento (da pochi a centinaia di franchi, a seconda del numero di scatti che si intende caricare). Inutile dire che l’app è diventata molto popolare tra i giovani e quindi anche all’interno delle scuole. In Italia, due quattordicenni di una scuola media della provincia di Roma sono stati denunciati per aver diffuso immagini fasulle di alcune loro compagne di 13 anni completamente nude. I due sono finiti sotto indagine per produzione di materiale pedopornografico, ma il gip ha poi dichiarato un non luogo a procedere per irrilevanza del fatto, parlando di una «impudenza ascrivibile a leggerezza tipicamente giovanile». Ma se davanti allo schermo del telefono ci fossero stati adulti con fini meno goliardici?

Contenuti molto credibili

Cerchiamo di capire con Alessandro Trivilini tutte le implicazioni che stanno dietro a questa tecnologia. Secondo l’esperto è «molto difficile contrastare un’app del genere». Questa, infatti, è decisamente evoluta e si lega a doppio filo con ChatGPT, specialmente dopo che OpenAI ha rilasciato la versione 4. Trivilini spiega: «Si tratta di applicazioni che non operano solamente sul linguaggio naturale, quindi sul testo, ma agiscono pure sull’audio, sulle foto e sui video. Sono multimediali. Ormai sono una miriade i software che applicano la tecnica di ChatGPT, ovvero quella ad apprendimento automatico su base statistica, per assemblare testi, voci e volti. Oggi questi programmi sono in grado di creare contenuti molto credibili, addirittura migliori rispetto a quelli originali. Per contrastare i fake, dunque, è necessario passare dal contenuto, che sarà sempre più difficile da riconoscere, al contesto». E prosegue: «Bisogna sviluppare un senso critico per misurare e valutare il contesto in cui questi contenuti vengono diffusi, ovviamente spingendo sulla prevenzione. Consapevolezza e responsabilità sono le parole chiave per giovani e adulti. Devono essere coscienti che ciò che vedono sullo schermo, oggigiorno, può essere molto facilmente riprodotto con una semplice applicazione, che non presuppone alcuna conoscenza informatica».

Prima di arrivare agli strumenti legali di tutela della persona bisogna avere la consapevolezza che un contenuto, anche se può sembrare perfetto, è stato assemblato, anche in modo molto semplice

Tecnicamente è difficile scovare un deepfake

La domanda a questo punto è: quando ci troviamo di fronte a un deepfake creato con l'intelligenza artificiale, che cosa possiamo fare? Trivilini chiarisce: «Bisogna avere gli strumenti per poter oggettivamente dimostrare che quel contenuto è un falso, quindi che è stato assemblato con l’uso dell’intelligenza artificiale. Tecnicamente è possibile dimostrarlo, non è semplicemente una stima soggettiva: si vanno a cercare degli elementi per deframmentare e destrutturare il contenuto multimediale in singole componenti. Dopo aver stabilito tecnicamente che si tratta di un falso, si può poi entrare, a livello giuridico, nella dinamica della diffamazione e della denigrazione della personalità altrui: in Svizzera questi sono reati perseguibili». E sottolinea: «Prima di arrivare agli strumenti legali di tutela della persona bisogna avere la consapevolezza che un contenuto, anche se può sembrare perfetto, è stato assemblato, anche in modo molto semplice». Secondo l’informatico della SUPSI, «a livello tecnico non è semplice, perché l’intelligenza artificiale agisce con degli algoritmi addestrati, che imparano da contenuti veri e non riprodotti artificialmente: l’apprendimento automatico si basa su dati reali. Per cui bisogna lavorare con metodo ingegneristico. Attraverso l’informatica forense, ad esempio, si usano tecniche di estrapolazione per trovare “punti di unione” molto sottili all’interno di un contenuto. È un po’ come se venisse utilizzata una lente gigante che consente di ingrandire così tanto quel contenuto da permettere di notare che si tratta di due elementi, che si toccano, e non di uno soltanto. Parliamo di una disciplina trasversale, non facile. Per questo prima è necessario lavorare sulla prevenzione». Misure come quelle dell’Italia, che ha sospeso ChatGPT, non sarebbero molto efficaci per quanto concerne la protezione dei dati personali, in quanto, spiega Trivilini, «il vento non si ferma con un fazzoletto: avrebbero dovuto farlo ai tempi dei social network, quando la privacy era già il ricordo di un tempo lontano. Oggi la tutela della privacy assume una terza dimensione. È come se la privacy da immagine diventasse un oggetto tridimensionale, che richiede maggiore attenzione e tutela, proprio perché riguarda, oltre ai dati personali più classici, anche l’audio (la voce di una persona) e il video (l’immagine, il volto di un individuo). Queste applicazioni inoltre vengono rilasciate in modo gratuito e c’è un effetto rilancio: usare app per addestrarne altre ancora più performanti. Il blocco dell’Italia, più che alla privacy, sembra legato a un aspetto di business, perché queste app stanno conquistando un nuovo mercato».

Lotta alla pedopornografia

Per quanto riguarda la lotta alla pedopornografia, secondo l’esperto, «le forze dell’ordine non possono più pensare di contrastare il fenomeno, ormai ricco di tecnologia, semplicemente da un punto di vista giuridico. Un poliziotto non può avere competenze così avanzate, ecco perché è importante che ci siano collaborazioni. Un agente deve lavorare spalla a spalla con un esperto di intelligenza artificiale. Banalmente: il primo fa l’investigazione e il secondo gli dice metodicamente e scientificamente come andare a cercare quel "punto di unione" di cui parlavo prima. L’unico modo per contrastare la criminalità che sfrutta questo tipo di tecnologia – conclude Trivilini – è la collaborazione strategica con i centri di ricerca, altrimenti questo tipo di complessità porta soltanto a rincorrere qualcosa che viaggia ad una velocità impressionante, e alla frustrazione».