REDES E SOCIEDADE

Conselho cobra a responsabilidade de plataformas no combate a exploração de criança

Norma do Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda) publicada no Diário Oficial desta terça-feira ( 9/4) reúne e unifica a compreensão da legislação de proteção às crianças e adolescentes no ambiente digital

O texto cobra uma maior participação e responsabilidade do setor privado, em especial das plataformas de redes sociais, na proteção das crianças da exploração sexual ou do recrutamento por grupos de ódio -  (crédito: kleber sales)
O texto cobra uma maior participação e responsabilidade do setor privado, em especial das plataformas de redes sociais, na proteção das crianças da exploração sexual ou do recrutamento por grupos de ódio - (crédito: kleber sales)

Para apresentar as diretrizes e recomendações técnicas que orientarão a atuação de órgãos governamentais e empresas provedoras de produtos e serviços digitais na defesa na proteção de crianças e adolescentes, o Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda) aprovou a resolução número 245. O texto cobra uma maior participação e responsabilidade do setor privado, em especial das plataformas de redes sociais, na proteção desse público da exploração sexual ou do recrutamento por grupos de ódio e foi publicado nesta terça-feira (9/4) no Diário Oficial da União.

A resolução também determina que seja elaborada, em 90 dias, uma política nacional dos direitos de crianças e adolescentes no ambiente digital. Como ambiente digital estão sites, redes sociais nas mais diversas plataformas, aplicativos e inclusive jogos e as interações que acontecem nesses ambientes utilizados amplamente por jovens e crianças.

“A resolução traz deveres que as plataformas já têm, mas, como a gente pode ver, em diversas situações elas não cumprem. Elas já têm esse dever de criar mecanismos de proteção contra conteúdos sensíveis, de controle parental, essa resolução visa reforçar esse dever e cobrar essa responsabilidade”, aponta a conselheira, Ana Claudia Cifali, coordenadora do Instituto Alana.

Para a conselheira, a resolução não cria nenhuma norma nova, apenas organiza a legislação existente e orienta aos órgãos públicos como proceder para garantir a fiscalização e estabelece a criança e o adolescente como absolutas na proteção digital.

“A gente já tem esse dever das empresas, a resolução só coloca isso de forma mais clara: as plataformas, serviços digitais, provedoras de produtos digitais e inclusive jogos e aplicativos, tem o dever de cuidado com nossas crianças. Todas as empresas do ramo são responsáveis por avaliar, medir e prevenir esses riscos”, ressaltou a conselheira.

Para Ana, algumas plataformas têm demonstrado pouco espaço para o diálogo, mas é necessário cobrar dessas empresas o cuidado. O Marco Civil da Internet prevê a retirada de conteúdos relacionados com nudez de crianças ou adolescentes e conteúdo de cunho sexual, mas uma série desses conteúdos ainda não são removidos pelas empresas, algo que é mais grave em países como o Brasil, que tem poucas equipes fazendo esse controle das publicações ilegais.

“Em outros países, em especial em países de língua inglesa, as plataformas ainda têm profissionais fazendo a fiscalização e a remoção de conteúdos criminosos. O que essa resolução faz é cobrar das empresas essas responsabilidades, no passado muito se disse que as próprias empresas iriam se autorregular assumindo esse papel. Mas o que vemos hoje, passado um tempo, é que as empresas não assumiram esse papel que era esperado”, aponta a conselheira.

Para Ana, é necessário que a sociedade brasileira encare de frente a necessidade de se discutir a regulação desses meios para a proteção das crianças, para impedir que grupos extremistas sigam recrutando jovens para práticas criminosas pelas redes. Isso nada tem a ver com o debate sobre a liberdade de expressão, alerta Ana.

“O debate sobre a liberdade de expressão deve ser feito, mas quando a gente olha para o direito das crianças que está sendo violado, a gente está falando de crimes que já estão no Código Penal e no Estatuto da Criança e do Adolescente (ECA). O que a gente tem defendido é que não se confunda esses debates”, aponta Ana Claudia Cifali.

“Precisamos ampliar uma discussão que é técnica de como as plataformas vão garantir a verificação de idade e controles parentais. Temos que discutir com o pessoal do design dessas plataformas, com o pessoal do TI (tecnologia da informação)”, sustenta a coordenadora.

Para ela, esses atores privados precisam colaborar para a criação de novas legislações que devem regular essa proteção no ambiente digital, e cita como exemplo as recentes leis sobre o tema criadas na Austrália, União Europeia, Alemanha e no Reino Unido.

Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Ícone do whatsapp
Ícone do telegram

Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br

postado em 10/04/2024 01:41 / atualizado em 10/04/2024 01:41
x