Il caso

«Con la sua censura, Meta sta mettendo a tacere le sofferenze dei palestinesi»

La ONG Human Rights Watch critica le politiche di rimozione dei contenuti su Facebook e Instagram: «Il sistema deve essere cambiato, i social sono fondamentali per denunciare abusi dei diritti umani»
© Shutterstock
Michele Montanari
22.12.2023 12:00

Numerosi post a sostegno del popolo palestinese sarebbero stati censurati su Facebook e Instagram a causa delle politiche e dei sistemi di moderazione dei contenuti di Meta. Lo afferma la ONG Human Rights Watch (HRW) spiegando che sempre più spesso le voci che denunciano violazioni dei diritti umani nella Striscia di Gaza vengono messe a tacere. HRW ha documentato la rimozione dei post in un rapporto di 51 pagine dal titolo Meta’s Broken Promises: Systemic Censorship of Palestine Content on Instagram and Facebook. Secondo la ONG, il problema deriva da politiche imperfette e dalla loro implementazione poco coerente, ma anche dall’eccessivo affidamento che la società fa sugli strumenti automatizzati per moderare i contenuti, nonché dall’influenza del Governo USA per quanto concerne la rimozione di determinati contenuti.

«La censura dei contenuti a sostegno della Palestina da parte di Meta aggiunge la beffa al danno, in un momento di indicibili atrocità e repressioni che già soffocano la possibilità di esprimersi dei palestinesi», ha dichiarato Deborah Brown, direttrice ad interim per la tecnologia e i diritti umani di HRW, aggiungendo: «I social media sono piattaforme essenziali per le testimonianze delle persone e per le denunce di abusi, ma la censura di Meta sta eliminando le sofferenze dei palestinesi».

Nel report sono stati esaminati 1.050 casi di censura online provenienti da oltre 60 Paesi. I casi in questione risultano coerenti con anni di segnalazioni da parte di organizzazioni per i diritti umani dei palestinesi, locali e internazionali, in cui si denuncia la censura da parte dell'impresa statunitense

Nello specifico HRW ha identificato sei modelli chiave di censura: rimozione dei contenuti, sospensione o eliminazione di account, incapacità di interagire con i contenuti, impossibilità di seguire o taggare account, restrizioni sull'uso di funzionalità come le dirette, e casi di «shadow banning», cioè la diminuzione della visibilità di determinati post. In più di 300 casi, inoltre, gli utenti non sono stati in grado di presentare ricorso contro la censura di contenuti o la rimozione di account perché il meccanismo per segnalarlo a Facebook o Instagram non funzionava correttamente.

In centinaia di casi documentati, Meta ha fatto appello alla sua politica che proibisce la pubblicazione di «contenuti che esprimono supporto per organizzazioni pericolose», ossia quelle che gli Stati Uniti designano come «organizzazioni terroristiche». Meta, insiste HRW, avrebbe applicato in modo radicale questa restrizione, limitando un discorso «legittimo» sulle ostilità tra i gruppi armati israeliani e palestinesi.

La società USA è inoltre accusata di aver applicato «erroneamente» le proprie politiche sui contenuti violenti ed espliciti, sulla violenza, sull'incitamento all'odio, sulle nudità e gli atti sessuali, colpendo prevalentemente post palestinesi. Inoltre, avrebbe rimosso in maniera incoerente dozzine di contenuti che documentavano lesioni o l'uccisione di palestinesi che, secondo HRW, avevano valore dal punto di vista giornalistico.

Le presunte censure di Meta sulla situazione in Medio Oriente, non sono una novità: già in un rapporto del 2021, HRW aveva documentato l'eliminazione su Facebook di discussioni relative a Israele e alla Palestina, denunciando come il social media stesse mettendo a tacere molte persone «in modo arbitrario e senza spiegazioni».

Inoltre un'indagine indipendente condotta da Business for Social Responsibility, commissionata dalla stessa Meta, aveva rilevato che la moderazione dei contenuti dell'azienda nel 2021 sembrava aver avuto «un impatto negativo sui diritti umani degli utenti palestinesi», influenzando negativamente «la capacità dei palestinesi di condividere informazioni e approfondimenti sulle loro esperienze».

Secondo HRW, Meta dovrebbe allineare le proprie politiche e pratiche di moderazione dei contenuti agli standard internazionali sui diritti umani, garantendo che le decisioni di rimuovere i contenuti siano trasparenti e imparziali.

In questo articolo: