Para o Tribunal Superior Eleitoral (TSE), o inimigo agora é outro — mas que serve ao mesmo própósito de disseminar mentiras e desinformações. Preocupado com o uso malicioso da inteligência artificial (IA) já no pleito municipal de outubro, a Corte iniciou uma série de audiências públicas para discutir quais regras serão aplicadas. Especialistas ouvidos pelo Correio destacam que a falta de regulamentação é uma ameaça não apenas à votação, mas, sobretudo, à democracia — sobretudo depois da tentativa de golpe em 8 de janeiro de 2023. E que a Corte deve acelerar o processo de tomada de solução sobre o tema, uma vez que as ferramentas de IA estão disponíveis, são atualizadas permanentemente e quem as utiliza maldosamente apenas aguarda o momento para atacar.
"A inteligência artificial tem o imenso potencial de amplificar as fake news, pois os mecanismos utilizados, como a criação de vídeos, manipulação de imagens e textos, induzem o eleitor à crença de que tudo aquilo ali é verdadeiro e existe", advertiu a advogada Izabelle Paes Omena de Oliveira Lima, fundadora do Instituto de Direito Político e Eleitoral (IDPE).
Marcelo Senise, idealizador do Instituto Brasileiro para a Regulamentação da Inteligência Artificial, explica que as IA e as fake news estão ligadas, mas são distintas. "Enquanto as fake news se referem à disseminação deliberada de informações falsas, a IA pode ser usada para criar e espalhar conteúdo enganoso de maneira mais rápida e personalizada. Pode gerar notícias falsas convincentes e adaptar estratégias de desinformação com base nas reações dos eleitores", alertou.
Senise também chama a atenção, principalmente, para a capacidade das novas tecnologias para produzir vídeos com imagens e sons falsos — os deep fakes. "O TSE tem de investir em tecnologias de detecção de deep fakes e algoritmos de IA que identifiquem padrões suspeitos de disseminação de desinformação. Além disso, é crucial promover a conscientização pública", ressaltou.
Punição
Entre as propostas recebidas pelo TSE para evitar que a IA domine o debate eleitoral, se destaca a de estabelecer uma punição para o partido ou o candidato que utilizá-la fraudulentamente. Também propuseram à Corte que se estabeleça a obrigatoriedade, ao político que disputa a eleição, de divulgar explicitamente que ele utiliza a inteligência artificial na campanha. Ao candidato também deveria ser imposto anunciar que um conteúdo foi fabricado ou manipulado — e apontar a tecnologia empregada.
Na avaliação da advogada Carolina Giovanini, especialista em IA, a melhor maneira de minimizar as fraudes nas eleições é manter o diálogo com as plataformas digitais. "Ao invés de adotar estratégias de proibição, é necessário explorar alternativas mais equilibradas. É importante considerar que a IA tem o potencial de trazer inovações positivas para a transparência eleitoral, facilitando processos, aprimorando análises de dados e, até mesmo, fornecendo ferramentas eficazes para a detecção de desinformação. Proibi-la seria privar a sociedade de avanços que podem trazer benefícios", observou.
Diálogo
A ministra Cármen Lúcia, vice-presidente do TSE e que vai comandá-lo durante a campanha eleitoral deste ano, pretende contar com a colaboração das big techs no controle e regulamentação do uso de inteligência artificial, em outubro. Isso porque uma das sugestões feitas à Corte é que as empresas que administram as plataformas de internet sejam responsabilizadas em caso de disseminação de mentiras e desinformações por meio de IA.
As empresas tentam evitar responder criminalmente por conteúdos impulsionados com postagens desinformando sobre o processo eleitoral. As alterações ao texto apresentado pelo tribunal foram defendidas por representantes do Facebook, Google e YouTube, na audiência pública da semana passada, e ainda vão passar por análise do TSE.
Uma das sugestões apresentadas pelo Facebook envolve a singularidade de impulso de postagens 48 horas antes e até 24 horas depois da eleição. A plataforma defende que a responsabilidade de verificar o cumprimento desse prazo seja apenas do anunciante — ou seja, de candidatos, partidos, coligações ou federações.
Para o especialista em privacidade e proteção de dados Guilherme Braguim, a melhor saída para o TSE é manter parcerias com as big techs — tal como aconteceu nas eleições de 2022. "Vale manter um diálogo aberto e constante com as redes sociais, principais propagadores deste tipo de conteúdo, para que haja um controle rápido e adequado do tema. E que sejam elaboradas medidas educativas para a população identificar o conteúdo, saber quais fontes de material são confiáveis e como averiguar a veracidade de uma mensagem", observou.
Segundo Senise, "o diálogo contínuo entre especialistas em tecnologia, sociólogos, e legisladores é essencial para encontrar soluções equilibradas e sustentáveis".
Saiba Mais
Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br