A comissão temporária sobre inteligência artificial (CTIA) deve votar, nesta terça-feira (9/7), o projeto de lei que regulamenta o assunto (IA) no Brasil. Na quinta-feira (4/7), o relator, Eduardo Gomes (PL-TO), fez a leitura da Complementação de Voto do texto alternativo ao Projeto de Lei (PL) 2338/2023, de autoria do senador Rodrigo Pacheco (PSD-MG). A matéria seria votada em seguida, mas teve deliberação adiada em razão de uma atualização no relatório.
Com o adiamento, a votação da matéria, e outras nove propostas que tramitam em conjunto, ficou agendada para iniciar às 10h desta terça. A CTIA é o único colegiado a analisar o projeto antes de ir a plenário, portanto, se aprovado, o texto pode ir para análise da Casa Alta antes do recesso, que começa em 18 de julho.
A proposta estabelece princípios e direitos sobre a IA no país, além de regras para uso, implementação e fiscalização da tecnologia de acordo com o risco que a atividade oferece. O projeto busca “proteger os direitos fundamentais” e garantir “sistemas seguros e confiáveis” e tem como fundamento a “centralidade da pessoa humana”, ou seja, prevê que, para qualquer criação feita a partir da inteligência artificial, é necessário, antes, observar se obedece os interesses da população e quais benefícios serão conferidos.
Entre as regras previstas, está a proibição do uso, desenvolvimento e implementação de sistemas de IA que induzam o comportamento da pessoa ou de grupos de maneira que cause danos à saúde; explorem quaisquer vulnerabilidades de pessoas ou grupos; possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes; sistemas de armas autônomas (SAA); entre outros.
O projeto também proíbe o uso da ferramenta no âmbito do poder público, mais especificamente da segurança pública quando o objetivo for a captura e identificação de criminosos. A matéria veda a utilização de sistemas "que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência".
Ferramentas com o propósito de identificação biométrica à distância em tempo real e espaços públicos; instrução de inquérito ou processo criminal; busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave e iminente à vida ou à integridade física de pessoas naturais; flagrante delito de crimes punidos com pena privativa de liberdade superior a dois anos; e recaptura de réus evadidos, cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Poder Judiciário também foram proibidas.
Esses sistemas foram enquadrados nos parâmetros considerados pelo projeto como “risco excessivo”. A proposição cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade, além dos que são proibidos, a matéria divide as possibilidades de uso da IA entre “alto risco”, que será controlado por meio de regras mais rígidas; ou não nenhuma das duas categorias, recebendo, assim, normas mais brandas. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.
Os sistemas de alto risco são permitidos, mas estarão sujeitos a regras mais duras que os sistemas de IA comuns. O texto prevê a necessidade de registro das operações realizadas, testes de confiabilidade e elaboração de uma “avaliação de impacto algorítmico” sobre os direitos fundamentais a ser entregue aos órgãos fiscalizadores. É o caso de veículos autônomos; sistemas que auxiliem em diagnósticos ou procedimentos médicos; uso de IA na aplicação da lei, entre outros.
Saiba Mais
Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br