Facebook come strumento di pulizia etnica? Il caso dei Rohingya in Myanmar

Quelli di seguito sono solo alcuni di migliaia di post pubblicati su Facebook contro la minoranza musulmana dei Rohingya in Myanmar. “Dobbiamo combatterli come Hitler ha fatto con gli ebrei, dannati kalars!”; “Questi cani, stanno uccidendo e distruggendo la nostra terra, la nostra acqua e la nostra popolazione (..) dobbiamo distruggere la loro razza”; “Versiamo benzina e diamogli fuoco, così che possano incontrare Allah più velocemente”.

Facebook come strumento di pulizia etnica? Il caso dei Rohingya in Myanmar - Geopolitica.info

Sono queste parole che hanno portato più di 900,000 Rohingya ad abbandonare il Myanmar per trovare rifugio nelle nazioni vicine, che hanno alimentato l’odio della popolazione burmese verso la minoranza etnica, che hanno portato alla distruzione dei loro villaggi. Sono questi discorsi di odio, condivisi milioni di volte sul social media, che hanno contribuito al genocidio della minoranza musulmana avvenuto nel 2017 e che hanno trasformato Facebook in uno strumento di pulizia etnica.

Fino a sette anni fa, il Myanmar era considerata la nazione meno connessa della terra. Secondo l’International Telecommunication Union, nel 2012, solo l’1,1 % della popolazione aveva accesso ad Internet e pochissimi erano in possesso di un telefono. Questo perché la giunta che aveva governato il paese per decenni, voleva tenere i cittadini isolati.

Nel 2013, grazie all’avvento di un governo più “liberale”, che si occupò della deregolamentazione delle telecomunicazioni, la situazione cambiò drasticamente. La compagnia telefonica posseduta dallo Stato si trovò ad affrontare la competizione di due compagnie straniere appartenenti alla Norvegia ed al Qatar. Grazie a questo nuovo mercato, il prezzo delle SIM card in Myanmar calò drasticamente, e passò da $200 a 2$.

Per l’inizio del 2016, quasi metà della popolazione era in possesso di uno smartphone ed aveva accesso ad internet. Da quel momento in poi, Facebook diventò virale. La piattaforma divenne il simbolo della digitalizzazione della nazione. Persino il governo utilizzava il social media per comunicare con i cittadini.

Questo comportò che la minoranza musulmana dei Rohingya, considerata come una minaccia già dal 1962 e sottoposta negli anni ad un crescente clima di esclusione, venisse bersagliata da numerosi discorsi di odio. I quali, grazie ad internet, avevano la capacità di raggiungere tutta la popolazione con un semplice click. Gli autori di questi post non erano utenti di internet qualunque, ma membri della forza militare del Myanmar, che utilizzarono Facebook per disseminare odio (Mozur, 2018), spargere violenza e creare fake news. In questo modo, la piattaforma si trasformò in un veicolo di istanze di pulizia etnica.

A seguito di numerose segnalazioni da parte di organizzazioni umanitarie, le Nazioni Unite e le maggiori testate giornalistiche (The New York Times, Reuters) si mobilitarono per cercare di comprendere la grandezza del fenomeno e le responsabilità del social media. I contenuti trovati furono migliaia e le Nazioni Unite arrivarono ad affermare che Facebook aveva avuto un ruolo chiave nel genocidio perpetuatosi nel 2017. Eppure, a seguito dello scandalo delle elezioni negli Stati Uniti del 2016, che aveva visto coinvolti Facebook e la società di analisi di dati “Cambridge Analytica”, il social media aveva emanato una serie di linee guida per aiutare gli utenti ad identificare le fake news e a combattere la misinformazione. Due anni dopo questo clamoroso evento, Facebook si è trovato implicato in una situazione ancor più terribile e delicata.

Ad agosto del 2018, Reuters ha condotto un’investigazione interna cercando di comprendere perché il social media avesse fallito nell’individuare ed eliminare i contenuti inneggianti alla violenza nei confronti della minoranza etnica. I post raccolti da Reuters ed il Centro per i diritti umani della UC Berkeley School of law, sono più di 1000 e coprono un periodo che va dal 2013 sino a metà 2018. Nella maggior parte di essi, i Rohingya vengono chiamati cani, stupratori, vermi. Viene suggerito di darli in pasto ai maiali e di sterminare la loro razza. Il materiale raccolto include anche diverse immagini pornografiche contro i musulmani. Le linee guida dettate da Facebook proibiscono specificatamente attacchi a gruppi etnici con “discorsi violenti o disumanizzanti” o la comparazione di questi ultimi ad animali. Inoltre, Facebook ha delle regole severe contro i contenuti pornografici. Proprio per questo, la piattaforma è velocissima nell’eliminare immagini di nudo o simboli come la svastica condivise da utenti in Europa o in US. Come mai non ha agito prontamente in Myanmar e non ha fermato l’ondata di odio verso i Rohingya?

A causa della soltanto recente digitalizzazione del Myanmar, Facebook ha dedicato scarse risorse al controllo post nella nazione. Secondo dei content monitor della piattaforma (controllori di contenuti), la maggior parte degli articoli segnalati globalmente ogni settimana, viene rilevata da sistemi automatici. Tuttavia, il sistema automatico ha riscontrato diverse difficoltà nel tradurre la scrittura birmana- lingua utilizzata per quasi tutti i contenuti postati su Facebook in Myanmar-. Un post che recitava “Uccidete tutti i miscredenti che vedete in Myanmar, nessuno di loro deve essere lasciato vivo” veniva tradotto dal sistema con “Non si dovrebbe avere un arcobaleno in Myanmar”. Data la scarsa attendibilità del sistema, il lavoro di revisione era affidato a persone fisiche. Tuttavia, nel 2015, c’erano solo due dipendenti ad analizzare i post che sapevano parlare birmano. Ad inizio 2018, secondo un’e-mail di Mark Zuckerberg indirizzata a degli attivisti, pubblicata sul New York Times, gli strumenti tecnologici sono stati resi più efficienti e sono stati assunti dozzine di dipendenti di lingua birmana. Inoltre secondo il creatore di Facebook, la società aveva anche “increased the number of people across the company on Myanmar-related issues” e disponeva ora di “a special product team working to better understand the specific local challenges and build the right tools to help people there safe(Mozur & Roose, 2018).

La risposta degli attivisti non ha tardato ad arrivare; “We appreciate your reiteration of the steps Facebook has taken and intends to take to improve your performance in Myanmar. This doesn’t change our core belief that your proposed improvements are nowhere near enough to ensure Myanmar users are provided with the same standards of care as users in U.S. or Europe. When things go wrong in Myanmar, the consequences can be really serious -potentially disastrous”(Mozur & Roose, 2018).


Quale sarà il mondo dopo Trump?

Per scoprirlo, approfondisci i temi della geopolitica e delle relazioni internazionali, con la XV Winter School di Geopolitica.info


L’utilizzo di Facebook come propagatore di odio, ci mette nuovamente di fronte alla necessità di sviluppare strumenti per controllare e dominare queste piattaforme. È di fondamentale importanza introdurre severe regolamentazioni per i social media, prima che un avvenimento così disastroso possa ripetersi nuovamente. Prima che queste piattaforme possano divenire le armi di una terza ‘guerra’ mondiale.

Beatrice Frascatani,
Geopolitica.info