Tecnologia

Apple vai checar iPhones à distância para verificar imagens de abuso sexual infantil

A Apple diz que a tecnologia será capaz de detectar versões editadas, mas semelhantes, das imagens originais de abuso sexual infantil



A Apple anunciou que vai colocar em uso um sistema para localizar material de abuso sexual infantil (identificado pela sigla CSAM, em inglês) em dispositivos de clientes dos Estados Unidos.

Antes de uma imagem ser armazenada no iCloud, a tecnologia irá procurar correspondências com material de abuso sexual infantil já conhecidos.

Assim, se uma correspondência for encontrada, um revisor humano avaliará o caso e relatará o usuário às autoridades, segundo disse a Apple.

Isso levantou, no entanto, preocupações com a privacidade - de que a tecnologia possa ser expandida para rastrear telefones em busca de conteúdo proibido ou mesmo discurso político. Especialistas temem que a tecnologia possa ser usada por governos autoritários para espionar seus cidadãos.

A Apple disse que as novas versões do iOS e iPadOS - que serão lançadas ainda este ano - terão "novos aplicativos de criptografia para ajudar a limitar a propagação do material de abuso sexual infantil online, ao mesmo tempo em que foram projetadas para a privacidade do usuário".

O sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecidas compilado pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA e outras organizações de segurança infantil.

Essas imagens são traduzidas em "hashes", códigos numéricos que podem ser "combinados" com uma imagem em um dispositivo Apple.

A Apple diz que a tecnologia também será capaz de detectar versões editadas, mas semelhantes, das imagens originais.

PA Media
O novo sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecido

'Alto nível de precisão'

"Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagem em relação ao material de abuso sexual infantil conhecido", disse a Apple.

A empresa afirmou que o sistema tem "um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta".

Além disso, a Apple diz que revisará manualmente cada relatório para confirmar se há uma correspondência. Em seguida, pode tomar medidas para desativar a conta de um usuário e relatar às autoridades.

A empresa diz que a nova tecnologia oferece benefícios de privacidade "significativos" em relação às técnicas existentes - já que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de material de abuso sexual infantil conhecido em sua conta do iCloud.

Alguns especialistas em privacidade expressaram preocupações.

"Independentemente de quais sejam os planos de longo prazo da Apple, eles enviaram um sinal muito claro. Em sua opinião (muito influente), é seguro construir sistemas que examinam os telefones dos usuários em busca de conteúdo proibido", disse Matthew Green, pesquisador de segurança da Johns Hopkins University, nos Estados Unidos.

"Se eles estão certos ou errados nesse ponto, pouco importa. Isso quebrará a barreira - os governos exigirão isso de todos."


Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!