
Maria Mello — coordenadora de Digital do Instituto Alana
Em um intervalo de apenas um mês, duas meninas brasileiras perderam a vida, ao que tudo indica, por conta do chamado desafio do desodorante, que circula livremente nas redes sociais incentivando usuários a inalar o produto pelo máximo de tempo possível. Brenda Sophia Melo de Santana, de 11 anos, e Sarah Raíssa Pereira de Castro, de apenas 8, foram vítimas fatais desse conteúdo viral, com a anuência de uma empresa de tecnologia. E, mais uma vez, diante de episódios trágicos como esses, ressurgem discursos que insistem em direcionar toda a responsabilidade às famílias — justamente aquelas que dedicavam a vida para criar suas crianças e, hoje, estão mergulhadas no luto. "Onde estavam os pais?", "Por que não controlaram o acesso a esses conteúdos?", perguntam, como se o limite do cuidado fosse o portão das casas.
No entanto, um ponto central — e frequentemente negligenciado — é o papel das plataformas digitais, que transformam conteúdos perigosos em acúmulo de visualizações. Trata-se de um sistema sustentado por algoritmos e modelos de negócio que premiam o engajamento a qualquer custo — mesmo quando ele resulta em tragédias. À medida que as plataformas permanecem praticamente inertes frente à urgência do tema, a emergência de repensar o funcionamento dessas plataformas só aumenta. Precisamos de modelos que respeitem os direitos humanos, que priorizem a vida acima do clique e que se comprometam, de forma concreta, com a construção de uma internet justa, segura e democrática — sobretudo para quem está em fase de desenvolvimento e ainda não dispõe de ferramentas fundamentais para se proteger sozinho.
A percepção pública já manifesta esse apelo: nove entre 10 brasileiros acreditam que as redes sociais fazem menos do que deveriam para proteger crianças on-line, segundo pesquisa do Instituto Alana em parceria com o Datafolha. O sentimento de desamparo em relação às grandes empresas de tecnologia não é exclusivo do Brasil. Em 2021, o caso da menina italiana, de 10 anos, que perdeu a vida após participar de um desafio viral mobilizou as autoridades do país e levou o TikTok a se comprometer com a adoção de medidas para implementar uma verificação de idade mais eficaz. Ainda assim, em 2024, o governo italiano se viu obrigado a aplicar uma multa de 10 milhões de euros à empresa pelas falhas contínuas no controle de conteúdos que são acessados por crianças e adolescentes. Esse é mais um dos episódios que evidenciam como, mesmo diante de tragédias, as ações das plataformas seguem sendo reativas, limitadas — e, muitas vezes, distantes de uma responsabilização concreta pela proteção dos mais novos.
E apesar desses casos se repetirem em todo o mundo, é fundamental salientar que, aqui no Brasil, a exposição aos riscos que circulam no ambiente digital é muito maior por conta da incoerência das plataformas digitais que oferecem menos proteção para crianças e adolescentes da América Latina, África e Ásia — o Sul Global —, enquanto na Europa e nos Estados Unidos, os recursos se mostram mais rigorosos. A exemplo disso, temos que mencionar que, ainda hoje, é possível acessar no YouTube vídeos de criadores de conteúdo brasileiros publicados entre 2010 e 2016 que incentivam desafios perigosos, sendo que alguns deles acumulam alguns milhões de visualizações e continuam sendo monetizados com anúncios de grandes marcas. Ou seja, além de permanecerem disponíveis, esses conteúdos seguem gerando lucro — mesmo quando representam um risco direto para crianças do país.
A proteção de crianças e adolescentes é um compromisso coletivo, como estabelece o artigo 227 da Constituição Federal. Por mais que campanhas educativas e ações de conscientização sejam fundamentais — assim como conteúdos que orientem mães, pais, responsáveis e educadores na mediação do uso das telas —, é preciso frisar que essas iniciativas, sozinhas, não são suficientes. Enquanto vídeos perigosos permanecerem acessíveis e escaparem de uma atuação verdadeiramente comprometida com os direitos das infâncias por parte das redes sociais, o problema persistirá.
Por isso, o debate sobre a regulação das plataformas digitais precisa avançar com urgência no Brasil. Não podemos aceitar que mais vidas sejam perdidas em nome dos interesses comerciais. A proteção dos mais novos não pode ser uma escolha, tampouco se resumir a promessas vazias que não se traduzem em mudanças reais nas políticas internas dessas empresas. Proteger a infância é dever de todos — e isso inclui, sem exceção, as plataformas digitais.