O algoritmo do Facebook ajudou a alimentar a propagação viral de ódio e violência durante a guerra civil da Etiópia, segundo alega um processo que corre na Justiça.
Abrham Meareg, filho de um acadêmico etíope morto a tiros após ser atacado em postagens no Facebook, está entre os que moveram a ação contra a Meta, dona do Facebook.
Os requerentes reivindicam um fundo de US$ 2 bilhões (cerca de R$ 11 bilhões) para vítimas de ódio no Facebook e mudanças no algoritmo da plataforma.
A Meta argumenta que investiu pesadamente em moderação e tecnologia para remover o ódio online.
Um representante diz que discurso de ódio e incitação à violência são contra as regras da plataforma.
"Nosso trabalho de segurança e integridade na Etiópia é guiado pelo feedback de organizações locais da sociedade civil e instituições internacionais", diz o porta-voz.
Condições de fome
O caso, que está sendo analisado pelo Supremo Tribunal do Quênia, é apoiado pela ONG Foxglove, que defende justiça no setor de tecnologia.
A Meta tem um hub de moderação de conteúdo na capital do Quênia, Nairóbi.
Centenas de milhares de pessoas morreram no conflito entre o governo etíope e as forças na região norte de Tigray, com outras 400 mil vivendo em condições de fome.
No mês passado, um acordo de paz surpresa foi acertado — mas, recentemente, houve um aumento de assassinatos por motivos étnicos entre as comunidades de língua amhara e oromo.
No ano passado, o pai de Meareg foi uma das vítimas da violência no país.
Em 3 de novembro de 2021, o professor Meareg Amare Abrha foi seguido depois de sair da universidade por homens armados em motocicletas e baleado à queima-roupa ao tentar entrar na casa da família.
Ameaças de seus agressores impediram que testemunhas o ajudassem enquanto ele sangrava, diz seu filho. Ele morreu caído no chão sete horas depois.
Antes do ataque, postagens no Facebook o difamavam e revelavam informações que ajudavam a identificá-lo, alega seu filho.
Apesar das repetidas reclamações usando a ferramenta de relatórios do Facebook, a plataforma "não apagou essas postagens até que fosse tarde demais".
Uma delas foi removida após a morte de seu pai.
Outra, que a plataforma se comprometeu a remover, permanecia online em 8 de dezembro de 2022.
'Lamentavelmente inadequado'
"Se o Facebook tivesse parado de espalhar o ódio e moderado as postagens corretamente, meu pai ainda estaria vivo", diz Meareg.
Ele quer garantir que nenhuma família sofra como a dele, acrescenta, e reivindica "um pedido de desculpas pessoal" da Meta.
Em uma declaração juramentada apresentada ao tribunal, Meareg alega que o algoritmo do Facebook promove conteúdo "odioso e provocador" porque provavelmente atrai mais interação dos usuários.
Ele também afirma que a moderação de conteúdo do Facebook na África é "lamentavelmente inadequada", com muito poucos moderadores que lidam com postagens nos idiomas principais do país, como amárico, oromo e tigrínia.
Questionada pela BBC News sobre o caso, a Meta diz que "empregamos funcionários com conhecimento e experiência locais, e continuamos a desenvolver nossas capacidades para detectar conteúdo violador nas línguas mais faladas no país, incluindo amárico, oromo, somali e tigrínia".
A empresa alega manter a Etiópia como uma "alta prioridade" — embora menos de 10% da população usem o Facebook — e diz que as medidas tomadas incluem:
- reduzir a viralização das postagens
- expandir as políticas contra violência e incitação
- aprimorar a plataforma
Análise de Peter Mwai, da BBC em Nairóbi
Este é um avanço significativo, uma tentativa de responsabilizar legalmente uma empresa de mídia social por suas ações durante o conflito na Etiópia.
Os críticos dizem que a Meta e outras empresas de mídia social fazem muito pouco para impedir o compartilhamento e a disseminação de desinformação e conteúdo que promove ódio e incitação contra vários grupos étnicos. E, em alguns casos, demora muito para que o conteúdo seja removido, principalmente depois que as pessoas denunciam.
Outros afirmam que a empresa tem sido injusta em sua repressão ao conteúdo odioso, visando postagens escritas em alguns idiomas de forma desproporcional.
A Meta sempre insistiu que faz muito e investiu pesadamente na capacidade de rastrear conteúdo odioso e inflamatório nas línguas mais faladas no país.
Possui moderadores de conteúdo familiarizados com os principais idiomas locais, mas também conta com inteligência artificial e parceiros locais para averiguar o conteúdo. Mas nunca ficou claro quantos moderadores trabalham com a Meta com foco na Etiópia.
Mas esta não é a primeira vez que o Facebook é acusado de fazer muito pouco para impedir a disseminação de conteúdo que promove o ódio étnico e a violência na Etiópia.
Em 2021, Frances Haugen, uma ex-funcionária do Facebook, disse ao Senado dos Estados Unidos que o algoritmo da plataforma estava "estimulando a violência étnica... captando os sentimentos extremos, a divisão", pois essas postagens atraíram alto engajamento, enquanto o Facebook não conseguia identificar adequadamente o conteúdo perigoso e carecia de conhecimento suficiente em muitos idiomas locais — incluindo alguns falados na Etiópia.
Outros requerentes na ação incluem o Instituto Katiba e Fisseha Tekle.
Tekle alega que as falhas de moderação do Facebook tornaram impossível seu relatório sobre direitos humanos no conflito para a ONG Anistia Internacional — e colocou a vida de sua família em risco.
Eles pedem à Justiça que determine que o Facebook tome medidas para remediar a situação, incluindo:
- criar um fundo de restituição de cerca de 200 bilhões de xelins quenianos (cerca de R$ 8,7 bilhões) para vítimas de ódio e violência no Facebook e mais 50 bilhões de xelins quenianos (cerca de R$ 2,2 bilhões) por danos semelhantes causados por postagens patrocinadas;
- impedir o algoritmo de recomendar "conteúdo provocador, odioso e perigoso";
- empregar moderadores suficientes para traduzir o conteúdo local, garantindo equidade entre a moderação em Nairóbi e a dos usuários dos Estados Unidos.