O Algoritmo da Impunidade: A Rede Social por Trás de um Genocídio
- nuriascom
- há 3 dias
- 5 min de leitura
Por: Victor Emmanuel | Observatório
O avanço das redes sociais transformou a maneira como a informação é disseminada, trazendo à tona novos desafios éticos e políticos. Um dos casos mais alarmantes do impacto dessas plataformas foi o papel do Facebook no genocídio da minoria Rohingya, em Mianmar. Esse episódio não apenas revelou as falhas estruturais da maior rede social do mundo, como também serviu de alerta global sobre o poder destrutivo das Big Techs quando operam sem regulação ou responsabilidade adequada (Freedman, 2014).
A minoria muçulmana Rohingya enfrentou uma longa história de perseguição em Mianmar, culminando em um genocídio em 2017. Centenas de milhares de pessoas foram assassinadas ou forçadas a fugir para Bangladesh, configurando uma das maiores crises humanitárias do século XXI (UNHCR, 2025).
De acordo com a Human Rights Watch (2018), oficiais do exército birmanês utilizaram o Facebook como arma de guerra informacional. Criaram contas falsas e disseminaram conteúdos que acusavam falsamente os Rohingya de terrorismo, publicavam imagens manipuladas e fomentavam discursos que os desumanizavam. O ambiente digital foi usado como combustível para o ódio étnico e religioso.
Segundo o relatório da Datareportal (2018), o Facebook rapidamente se consolidou como a principal fonte de notícias em Mianmar, especialmente após a abertura política e o aumento do acesso à internet no país. Em 2010, apenas 0,25% da população birmanesa utilizava regularmente a internet; esse número saltou para mais de 25% em 2016. Em 2018, cerca de 34% da população já tinha acesso à internet, sendo o Facebook a plataforma dominante, usada inclusive como sinônimo de internet.
Outro fator-chave na propagação do ódio contra os Rohingya foi o papel de líderes budistas nacionalistas, especialmente o monge Ashin Wirathu, apelidado internacionalmente de “Bin Laden budista”. Ele liderava o movimento Ma Ba Tha, que promovia uma ideologia ultranacionalista e anti-islâmica, difundida por meio de sermões, panfletos e, principalmente, redes sociais (Amnesty International, 2018). A retórica incendiária contribuiu para legitimar a violência e atrair apoio social ao genocídio, numa aliança informal entre setores religiosos e militares.
Mais de 700 mil Rohingyas buscaram refúgio em Bangladesh após o início da violência sistemática. No campo de refugiados de Cox’s Bazar — o maior do mundo — enfrentam condições de extrema precariedade: superlotação, escassez de saneamento, falta de acesso à saúde, educação e riscos ambientais constantes (UNHCR, 2025). A ausência de um acordo internacional efetivo para garantir seu retorno seguro agrava ainda mais essa crise prolongada.
Diversas denúncias alertando sobre o uso do Facebook para disseminar discurso de ódio foram feitas ao longo dos anos por jornalistas, ativistas e organizações como Human Rights Watch e Amnesty International. Já em 2013, durante os surtos de violência em Meiktila, o Facebook foi criticado por sua lentidão em reagir (HRW, 2018). Um relatório interno vazado pelo The Wall Street Journal revela:
Os próprios funcionários do Facebook alertaram repetidamente sobre o uso da plataforma para disseminar ódio e incitar à violência em Mianmar, mas as respostas foram sistematicamente negligenciadas pela liderança da empresa. (The Wall Street Journal, 2021, p. 4).
Enquanto nos Estados Unidos e na Europa existem mecanismos de fiscalização mais estruturados e pressão pública crescente por responsabilidade digital, países do Sul Global, como Mianmar, foram historicamente negligenciados pelas grandes plataformas (Deibert; Rohozinski, 2010). A resposta do Facebook à crise foi lenta e reativa: apenas após intensa pressão internacional, a empresa removeu contas ligadas ao exército e iniciou ações de monitoramento (Meta, 2018). Mas o estrago — milhares de mortos e deslocados — já havia sido feito.
Segundo Freedman (2014), o poder das empresas de mídia está diretamente ligado à sua capacidade de estruturar a circulação da informação, impondo limites ao debate público e favorecendo interesses próprios. Essa negligência escancara uma questão urgente: por que as Big Techs ainda não são responsabilizadas, ao nível legal e internacional, pelos impactos concretos causados por seus algoritmos e modelos de negócios baseados na amplificação de conteúdo sensacionalista e nocivo?
Além disso: até que ponto a comunidade internacional está disposta a estabelecer mecanismos de regulação eficazes, com obrigações claras de transparência, moderação e prevenção de danos? A ausência de um marco global robusto permite que essas empresas operem com relativa impunidade, mesmo diante de tragédias humanitárias (Woolley; Howard, 2018).
O caso de Mianmar não é isolado. De acordo com Metzl (2018), em países como Índia, Etiópia e Brasil, o Facebook também foi acusado de falhar na contenção de conteúdos violentos, alimentando tensões políticas e étnicas. A lógica do engajamento a qualquer custo favorece o extremismo, criando um ciclo em que o lucro é alimentado pela polarização. Sem regulação internacional, as Big Techs continuarão priorizando o lucro acima da integridade democrática e da segurança das populações mais vulneráveis.
Diversas medidas poderiam ter sido adotadas pelo Facebook para evitar o agravamento da crise. A contratação antecipada de moderadores fluentes em birmanês e com conhecimento do contexto local seria um primeiro passo: “Em 2018, a empresa contava com apenas um moderador que falava birmanês para monitorar uma plataforma com milhões de usuários no país.” (The Wall Street Journal, 2021, p. 7).
Além disso, sistemas automatizados de detecção de contas falsas e campanhas de desinformação, parcerias com agências de checagem e alertas em publicações duvidosas poderiam ter mitigado os danos (Meta, 2018). A título de comparação, a China adotou o “Great Firewall”, que restringe o acesso a plataformas estrangeiras e redireciona os cidadãos para redes sociais nacionais. Essa estratégia, embora criticada por censura, tem o objetivo de garantir soberania informacional e conter interferências externas, como alegadamente tentou fazer a CIA durante a revolta de Hong Kong em 2019: “Sem uma arquitetura normativa clara, as plataformas digitais seguem moldando o espaço público com pouca ou nenhuma supervisão democrática.” (Freedman, 2014, p. 112).
O genocídio dos Rohingya é um lembrete brutal dos perigos da ausência de regulação sobre plataformas digitais. O Facebook falhou em sua responsabilidade mais básica: impedir que sua tecnologia fosse usada para fomentar o ódio e a violência. A impunidade que cerca esse episódio deve servir de alerta para o mundo (Amnesty International, 2018).
Em suma, a tragédia de Mianmar nos obriga a repensar profundamente os limites da liberdade digital, a responsabilidade das empresas de tecnologia e o papel dos Estados e organismos internacionais na regulação das redes. O futuro da democracia e dos direitos humanos depende da construção de mecanismos eficazes que impeçam que ferramentas poderosas como o Facebook sejam transformadas em armas de destruição social. Sem isso, corremos o risco de assistir à repetição de tragédias semelhantes — e, pior, com a cumplicidade silenciosa de algoritmos que privilegiam o engajamento ao invés da verdade (Woolley; Howard, 2018).
Referências:
AMNESTY INTERNATIONAL. “We Will Destroy Everything”: Military Responsibility for Crimes Against Humanity in Rakhine State, Myanmar. 2018. Disponível em: https://www.amnesty.org. Acesso em: 20 mar. 2025.
DATAREPORTAL. Digital 2018: Myanmar. We Are Social / Hootsuite, 2018. Disponível em: https://datareportal.com. Acesso em: 20 mar. 2025.
DEIBERT, Ronald; ROHOZINSKI, Rafal. Access Controlled: The Shaping of Power, Rights, and Rule in Cyberspace. Cambridge: MIT Press, 2010. Disponível em: https://mitpress.mit.edu/9780262014342/access-controlled/. Acesso em: 20 mar. 2025.
FREEDMAN, Des. The Contradictions of Media Power. London: Bloomsbury Publishing, 2014. Disponível em: https://www.bloomsbury.com/uk/contradictions-of-media-power-9781849660685/. Acesso em: 20 abr. 2025.
HUMAN RIGHTS WATCH. "An Open Secret": Abuses and Impunity in Myanmar's Rakhine State. 2018. Disponível em: https://www.hrw.org. Acesso em: 20 mar. 2025.
META. Facebook’s Response to Myanmar Human Rights Issues. 2018. Disponível em: https://about.fb.com. Acesso em: 20 mar. 2025.
METZL, Jamie. In Myanmar, Facebook is a 'weapon' against Rohingya. The New York Times, 2018. Disponível em: https://www.nytimes.com. Acesso em: 20 mar. 2025.
THE WALL STREET JOURNAL. Facebook Employees Flagged Misinformation and Hate Posts. Company Failed to Act. 2021. Disponível em: https://www.wsj.com. Acesso em: 20 mar. 2025.
UNITED NATIONS HUMAN RIGHTS COUNCIL. Report of the Independent International Fact-Finding Mission on Myanmar. Genebra: OHCHR, 2018. Disponível em: https://www.ohchr.org. Acesso em: 20 mar. 2025.
UNHCR – ALTO COMISSARIADO DAS NAÇÕES UNIDAS PARA REFUGIADOS. Rohingya Emergency. ACNUR Brasil. Disponível em: https://www.acnur.org/rohingya-emergency/. Acesso em: 20 mar. 2025.
WOOLLEY, Samuel C.; HOWARD, Philip N. Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Oxford: Oxford University Press, 2018. Disponível em: https://global.oup.com/academic/product/computational-propaganda-9780190931407. Acesso em: 20 mar. 2025.
Comments