Critiche a quelle foto «ritoccate» sui social: «Donne come oggetti sessuali»

Donne bellissime. Occhi languidi, sguardi ammiccanti, fisici mozzafiato e sexy. A volte nude. In questi giorni TikTok e Instagram sono inondati da immagini «ritoccate» che sembrano uscite dal mondo dei fumetti, degli anime e dei videogiochi. Quella che sembra solo l’ennesima innocua moda social del momento ha però sollevato diverse critiche, legate alla sessualizzazione del corpo, specialmente femminile, e perplessità sulla privacy. L’app Lensa AI ha registrato un boom di download, ma è subito finita al centro delle polemiche. Vediamo di cosa si tratta.
Gli avatar magici
La popolare app Lensa AI, creata da Prisma Labs nel 2018, ha recentemente trovato nuova vita grazie a «Magic avatar», una funzione basata sull'intelligenza artificiale in grado di trasformare i nostri selfie o qualsiasi foto in personaggi stilizzati, come fate, principesse o supereroi. Secondo le stime preliminari di Sensor Tower, oltre quattro milioni di persone in tutto il mondo hanno scaricato Lensa AI nei primi cinque giorni di dicembre. Nello stesso periodo, gli utenti hanno speso più di otto milioni di dollari sull’app, gratuita per le funzioni base, a pagamento per quelle più avanzate (tra cui «Magic avatar», appunto): vengono proposte diverse tipologie di pacchetti, dal set di avatar da 4 dollari, all’accesso annuale illimitato per la modica cifra di 50 dollari. L'app chiede di inviare alcune nostre foto e queste vengono elaborate dall'intelligenza artificiale, che riesce a interpretare angolazioni, espressioni e movimenti dell’utente, restituendo un avatar decisamente seducente, con stili diversi, da quelli più realistici, a quelli che sembrano dipinti, fumetti, cartoni animati o opere in computer grafica.
Corpi come oggetti sessuali
Dopo che le immagini generate dall’app hanno iniziato a scorrere sul web, non sono mancate le polemiche. Secondo diverse persone, tra cui giornaliste che hanno utilizzato le proprie foto, i corpi femminili verrebbero spesso trasformati in oggetti sessuali. Si parla di risultati finali altamente sessualizzati, con seni estremamente prosperosi e fisici «a clessidra». Brandee Barker, femminista e attivista esperta di tecnologia, ha puntato il dito contro l’app dopo aver caricato un’immagine del suo viso. I risultati? Un avatar che la rappresentava con le extension per i capelli e una tuta aderente molto scollata, mentre un altro la ritraeva con un reggiseno bianco e dimensioni esagerate. Barker ha riferito al Guardian: «Ho ottenuto diverse immagini di fate sessualizzate, seminude, con un grande seno e la vita stretta. Non mi assomigliavano per niente ed erano imbarazzanti, persino preoccupanti». Secondo l’attivista, l’Intelligenza artificiale ha un enorme potenziale, ma deve ancora fare molta strada nel modo in cui rappresenta la femminilità: «Questi avatar sessualizzati sono irrealistici e in contrasto con i tanti progressi che abbiamo fatto, in particolare per quanto riguarda l'inclusività in termini di body positive».
Anche i minorenni
Lensa AI informa l’utente di non inviare foto di nudi e di bambini, eppure, soprattutto le donne hanno notato che pure quando si caricano normalissime foto, l'app non solo genera nudi, ma attribuisce caratteristiche molto sessualizzate, aggiungendo pose sexy e seni giganteschi. Olivia Snow ha fatto un esperimento per Wired US e racconta di aver ricevuto diversi risultati di nudo integrale nonostante avesse caricato solo foto del viso. Inoltre, in diversi casi la sessualizzazione sarebbe stata «razzista»: le immagini di alcune afroamericane avrebbero ottenuto come risultato lo sbiancamento della pelle e, nel caso di una donna asiatica, l’occidentalizzazione dei lineamenti. E non solo, nonostante l’app chieda esplicitamente di non usare foto di minori, anche le ragazzine subirebbero il trattamento sexy. Olivia Snow ha fatto un esperimento utilizzando alcune sue foto da giovane e ha parlato di «risultati terrificanti»: in un avatar viene rappresentata con un viso molto giovanile, lo sguardo seducente, in posa sexy e mezza nuda. La giornalista Sabeth Vela ha pubblicato i risultati ottenuti sul portale svizzero Watson, e, anche nel suo caso, è stata rappresentata poco vestita e in versione sexy. Con le immagini maschili, i nudi invece sarebbero meno frequenti. Ma perché le donne vengono ritratte in modo così sessualizzato dall'intelligenza artificiale? Perché il software pesca le informazioni dal mare magnum di Internet. E sappiamo bene che tipo di immagini vadano per la maggiore sul web.
Problemi di privacy?
Detto della sessualizzazione del corpo, che fine fanno poi in nostri selfie? Ci sono problemi legati alla privacy? Gli sviluppatori di Prisma Labs hanno dichiarato al blog di tecnologia e informatica TechCrunch che «nel momento stesso in cui viene finalizzato l’addestramento di un modello di intelligenza artificiale basato sulle foto di un utente, quelle stesse immagini vengono eliminate nell’immediato». Le nostre immagini verrebbero dunque eliminate dai server, che si trovano negli Stati Uniti, non appena vengono generati gli avatar. Tuttavia, David Leslie, direttore della ricerca sull'etica e l'innovazione responsabile presso l'Alan Turing institute e professore alla Queen Mary University di Londra, consiglia di leggere sempre l’informativa sulla privacy e le condizioni d'uso delle app che utilizzano i nostri dati personali: «Dobbiamo sempre essere consapevoli quando i nostri dati biometrici vengono utilizzati per un qualsiasi scopo. Si tratta di dati sensibili. Dovremmo essere molto cauti», ha spiegato l’esperto a Wired US. I dati biometrici sono tutti i parametri facciali che rendono unici i nostri volti (dal colore degli occhi alla dimensione degli elementi del viso) e sono considerati dati sensibili. Dovremmo stare attenti come lo siamo per il nostro indirizzo di casa o numero della carta di credito, specialmente in un’epoca in cui spopolano i deepfake. Autorizzando l’app alla creazione di un avatar, stiamo cedendo i nostri dati sensibili che, stando alla policy di Lensa AI, a meno che l'utente non abbia dato il suo esplicito consenso a utilizzare le foto o i video per scopi diversi, non verranno utilizzati per identificare gli utenti, né ceduti a terzi per scopi di pubblicità o marketing. Di fatto, i nostri selfie verranno utilizzati per «istruire» e migliorare il sistema, dopodiché saranno cancellati. E intanto le intelligenze artificiali diventano sempre più precise, mentre noi, con i nostri avatar colorati, pensiamo di aver tra le mani solo l'ennesimo passatempo.