Instagram e gli “shadow ban” su Israele e Palestina

(ilpost.it, 19 ottobre 2023)

Su Instagram da giorni moltissimi utenti, soprattutto tra attivisti, giornalisti e altre persone che stanno seguendo la guerra nella Striscia di Gaza, segnalano che i loro post e le loro Storie su Instagram che parlano delle condizioni di estrema difficoltà in cui vivono le persone nei territori palestinesi o che esprimono vicinanza alla causa palestinese ottengono un numero di visualizzazioni e interazioni molto inferiore a quello riservato agli altri loro altri contenuti.

Per questo sospettano che dietro ci sia quello che, tecnicamente, viene chiamato shadow ban, una pratica di cui si conoscono solo in parte i dettagli, e comune a tutti i maggiori social network. Le Storie, un formato di post che scompare dopo 24 ore, sono da anni diventate lo spazio più utilizzato dagli utenti di Instagram che vogliono parlare di attualità, condividere link o post altrui, e in generale esprimere la propria opinione. A seconda del loro contenuto l’algoritmo di prioritizzazione dei contenuti di Instagram sceglie se mostrarle agli altri utenti prima o dopo rispetto alle Storie altrui. Per esempio, i contenuti originali vengono spesso mostrati prima delle Storie che contengono post condivisi da altri profili, oppure funzionano meglio le Storie in cui si compare con la faccia rispetto a quelle in cui compare, per esempio, un paesaggio. È quindi normale che alcune Storie vengano viste da meno utenti rispetto ad altre.

A volte, però, lo scarto tra la normale media di visualizzazioni delle Storie e alcune Storie specifiche è molto evidente. Negli anni, molti utenti e ricostruzioni giornalistiche hanno verificato che può succedere che alcune Storie che riguardano determinati contenuti e temi, per esempio il sex work, ottengano sistematicamente meno visualizzazioni delle altre. In questi casi, il motivo è di solito uno shadow ban. Meta, l’azienda cui appartiene Instagram (e Facebook, e Whatsapp), utilizza vari sistemi per moderare i contenuti e assicurarsi che le cose pubblicate sulle piattaforme che possiede non violino le proprie condizioni d’uso.

Nel caso un post o una Storia violino apertamente le condizioni d’uso – magari perché incitano alla violenza o contengono materiali pornografici – Meta può decidere di eliminarli, avvisando l’utente dell’avvenuta rimozione e (quasi sempre) della ragione della scelta. Per le violazioni più evidenti, plateali o reiterate è possibile anche che un profilo Instagram venga sospeso a oltranza. Ci sono altre pratiche di moderazione, affidate quasi totalmente a sistemi automatizzati, che sono però molto meno trasparenti e applicate soprattutto ai contenuti detti “borderline”, ovvero quelli che non violano apertamente le linee guida, ma stanno al limite di ciò che è consentito. Ricadono in questa categoria le pratiche di moderazione che, messe insieme, vengono chiamate colloquialmente shadow ban.

Si tratta di situazioni in cui i contenuti o i profili delle persone non vengono rimossi, ma vengono mostrati molto meno ai follower, riducendo talvolta anche massicciamente il numero di persone raggiunte. In alcuni casi, le persone sottoposte a shadow ban diventano molto difficili da trovare anche inserendo manualmente il loro nome nella barra di ricerca: il risultato è che quello che vogliono condividere con gli altri, pur non violando formalmente alcuna linea guida, viene visto da poche persone. L’utente posto in shadow ban non viene notificato del fatto che sta accadendo, e di solito lo scopre osservando le proprie visualizzazioni calare vertiginosamente o venendo a sapere da altre persone che il suo profilo è difficile da trovare.

Solitamente a essere particolarmente esposte a shadow ban sono le persone che pubblicano post che contengono corpi femminili, nudità (non completa) e discussioni sulla sessualità, inclusi negozi che vendono sex toys on line e profili che fanno educazione sessuoaffettiva. Il problema si era però già presentato, sempre nel contesto del conflitto israelo-palestinese, nell’aprile del 2022, in un momento in cui erano aumentate le violenze. In quel caso vari personaggi piuttosto noti, tra cui la modella palestinese-olandese Bella Hadid e lo youtuber palestinese Adnan Barq, avevano fatto notare che ogni volta che pubblicavano un contenuto in cui parlavano di Palestina le loro visualizzazioni diminuivano notevolmente.

Questa volta le persone che raccontano di essere state “shadowbannate” sono molte di più – anche se è molto difficile stimare quante siano – e tra loro ci sono anche persone che raccontano l’andamento del conflitto sui social network per lavoro. La giornalista del New York Times Azmat Khan (tra l’altro vincitrice di un premio Pulitzer, uno dei più grandi riconoscimenti nel giornalismo) ha detto apertamente di essere stata penalizzata dopo aver parlato di Gaza nelle proprie Storie, mentre il giornalista statunitense-kuwaitiano Ahmed Shihab-Eldin, molto attento da anni alla causa palestinese, è stato sospeso dalla piattaforma senza spiegazione. «Negli ultimi giorni è stata un’esperienza collettiva, per molti inesplicabile. Magari una Story aveva 700 visualizzazioni un giorno e il giorno dopo un’altra Story su Israele ne aveva invece solo 50», racconta Donata Columbro, giornalista e autrice del libro Dentro l’algoritmo. Le formule che regolano il nostro tempo. «Non se ne sono accorte solo le persone che di solito parlano di questi temi, come attiviste e attivisti: in questo caso la pratica della riduzione dell’engagement e della visibilità di alcuni contenuti è stata usata massicciamente, e ha toccato anche vari giornalisti. Meta ha probabilmente aumentato la moderazione attorno a parole come Gaza e Hamas».

Per cercare di aggirare gli shadow ban, molte persone hanno cominciato non solo a storpiare le parole più “problematiche” – magari scrivendo Pal3stin4 al posto di Palestina, o G4z4 al posto di Gaza – ma anche a inserire hashtag o sticker a favore di Israele nelle proprie Storie. In risposta alle centinaia di segnalazioni ricevute, Meta ha rilasciato una dichiarazione in cui dice che «non è mai stata loro intenzione sopprimere una particolare comunità o un punto di vista», ma che «a causa del maggior numero di contenuti segnalati riguardanti il conflitto in corso, anche contenuti che non violano le nostre linee guida potrebbero essere rimossi per errore».

L’azienda ha inoltre detto che la settimana scorsa c’è stato un temporaneo problema nel suo sistema di moderazione automatizzato che ha portato a una riduzione capillare della visibilità delle Storie «in tutto il mondo», e quindi non soltanto per i post dedicati alla Palestina. Nel comunicato si legge però che l’azienda ha effettivamente introdotto «misure più incisive per evitare di consigliare contenuti potenzialmente in violazione o al limite della violazione delle linee guida», portando quindi a una minore visibilità di certi contenuti considerati potenzialmente sensibili.

«È importante tenere a mente che Instagram è una piattaforma statunitense, non solo nel senso che gli Stati Uniti hanno un rapporto molto stretto con Israele, ma anche nel senso che Meta ha delle linee guida molto stringenti e rigide per quanto riguarda ciò che considera terrorismo», spiega Carolina Are, ricercatrice del Centre for Digital Citizens della Northumbria University che ha dedicato vari anni allo studio degli shadow ban. «È credibile quindi che la loro moderazione dei contenuti considerati filoterroristici si allarghi anche a contenuti che terroristici non sono. E siccome in questi giorni circolano molti contenuti di guerra, che mostrano il risultato delle violenze, credo che la moderazione automatica faccia ancora più fatica a distinguere le cose: probabilmente i contenuti potenzialmente problematici sono aumentati, il che ha mandato i sistemi di moderazione nel pallone».

Spread the love