Inteligência Artificial

Regulação da inteligência artificial no Brasil caminha a passos lentos

Para especialistas, a discussão passa por ética, segurança, trabalho humano e atenção à discriminação e desigualdades sociais

Ministra Luciana Santos defendeu regulação da IA ao participar de audiência na Comissão de Ciência, Tecnologia, Inovação e Informática no Senado -  (crédito: Waldemir Barreto/Agência Senado)
Ministra Luciana Santos defendeu regulação da IA ao participar de audiência na Comissão de Ciência, Tecnologia, Inovação e Informática no Senado - (crédito: Waldemir Barreto/Agência Senado)

A discussão da regulamentação da inteligência artificial (IA) no país avança lentamente. Em março, países da União Europeia, bloco formado por 27 Estados, aprovaram a primeira lei global com regras amplas para uso e desenvolvimento da tecnologia. No Brasil, apesar das boas intenções em legislar, não há consenso sobre o tema, que ainda é uma folha em branco.

Se por um lado, os benefícios do avanço da tecnologia se fazem cada vez mais presentes no dia a dia, é preocupante o mau uso da ferramenta para fins criminosos. Para especialistas e congressistas ouvidos pelo Correio, a aprovação de normas gerais, além de prever o uso seguro da IA, deve se atentar aos direitos fundamentais, a não discriminação e a não reprodução de injustiças sociais, ao uso seguro atrelado ao desenvolvimentos científico e tecnológico e aos impactos da automação no mundo trabalhista.

No início deste mês, o presidente Luiz Inácio Lula da Silva afirmou que o país terá uma regulamentação sobre o tema e que deverá ser lançada em junho, durante uma conferência nacional. O plano de uso da tecnologia está em fase de elaboração pelo Conselho Nacional de Ciência e Tecnologia (CCT). "Até lá (todos) estão desafiados a apresentar um projeto de IA para a gente não ter que copiar de outro país as coisas importantes que precisamos", disse o petista. O intuito do chefe do Executivo é apresentar, durante discurso na abertura da 79ª Sessão da Assembleia Geral das Nações Unidas, em setembro, um projeto genuinamente brasileiro de IA.

Em março, a ministra da Ciência, Tecnologia e Inovação e vice-presidente do CCT, Luciana Santos, apontou que a pasta já colocou sob revisão a Estratégia Brasileira de Inteligência Artificial e que o conselho vai apresentar um plano, com metas, objetivos e prazos a serem alcançados, incluindo desde investimentos em supercomputadores até a capacitação humana dentro do processo.

A deputada federal Nely Aquino (Podemos-MG), presidente da Comissão de Ciência, Tecnologia e Inovação da Câmara dos Deputados, destaca que regulamentar a inteligência artificial no Brasil é crucial para estabelecer diretrizes éticas para o desenvolvimento, garantindo transparência e responsabilidade nas decisões algorítmicas.

"É importante assegurar que a IA respeite os direitos fundamentais, evitando discriminação e violações de privacidade, promover um ambiente propício à inovação, incentivando o desenvolvimento de tecnologias de forma responsável e sustentável. Regular a IA pode ajudar a mitigar o impacto da automação no mercado de trabalho, garantindo uma transição mais suave e oportunidades de capacitação para os trabalhadores afetados", pontua.

Período eleitoral

O deputado federal Julio Cesar (Republicanos-DF), suplente da comissão, aponta, por sua vez, que o documento a ser criado deve prever, entre as diretrizes, temas como inclusão digital, inovação e pesquisa e segurança cibernética, além de questões específicas do período eleitoral.

"É fundamental promover programas que garantam a inclusão digital, proporcionando acesso a dispositivos e treinamento em habilidades digitais para todos os cidadãos, independentemente da localização ou da condição socioeconômica. Também é preciso incentivo ao desenvolvimento de pesquisa e inovação em tecnologia, visando impulsionar a economia digital e encontrar soluções tecnológicas para os desafios enfrentados pelo país."

Além disso, o parlamentar reforça a implementação de políticas e medidas de segurança para proteger infraestruturas críticas e dados sensíveis e a privacidade dos cidadãos contra ameaças cibernéticas. Em relação à necessidade de legislação específica para as eleições, ele acrescenta que a regulamentação deveria abordar questões cruciais, como a proteção dos dados dos eleitores e a prevenção da disseminação de fake news e desinformação on-line, bem como garantir o uso ético e responsável da tecnologia durante as campanhas eleitorais.

"Essas medidas são essenciais para garantir eleições transparentes, seguras e justas, além de promover o acesso equitativo à tecnologia e à informação em toda a sociedade", finaliza.

Projeto cria marco legal

No Senado, a regulamentação da nova tecnologia está sendo proposta a partir do projeto de lei (PL) nº 2338 de 2023, de autoria do presidente da Casa, senador Rodrigo Pacheco (PSD-MG), e está na Comissão Temporária Interna sobre Inteligência Artificial no Brasil.

Em carta aberta ao Congresso a respeito do Marco Regulatório da Inteligência Artificial no Brasil, entidades defendem que o assunto deve ser debatido "com alternativas de regulação para a tecnologia que estejam alinhadas com a experiência normativa brasileira".

O documento pede que os congressistas observem o ordenamento jurídico brasileiro que já estabelece alguns direitos e deveres quanto ao uso de IA, considerando que a criação de novas legislações pode ser conflitante com as existentes, e que seja feita uma análise econômica dos impactos regulatórios.

Professor e advogado especializado em direito digital e proteção de dados, Fabricio Mota ressalta que o PL é fundamental para navegar nos desafios e oportunidades apresentados pela IA, destacando a importância de uma abordagem baseada em riscos e direitos. "Ele propõe a proibição de sistemas de IA de risco excessivo, reconhecendo que certas aplicações podem ameaçar os direitos fundamentais dos cidadãos e que, portanto, devem ser estritamente reguladas ou proibidas. Uma característica central do projeto é a categorização de sistemas de inteligência artifical considerados de alto risco, estabelecendo obrigações específicas sobre esses sistemas para proteger as pessoas afetadas por suas operações", explica.

No aspecto de governança e transparência, a proposta ressalta a importância de avaliações de impacto algorítmico e de mecanismos de fiscalização para assegurar que as entidades que utilizam IA estejam em conformidade com a legislação proposta. Isso visa não apenas a proteção dos direitos individuais, mas a promoção de um ecossistema de inteligência artifical ético e transparente.

Para a eleição municipal de outubro deste ano, o Tribunal Superior Eleitoral (TSE) tem enfoque especial nas deepfakes. Bruna Borghi Tomé, sócia na área de direito eleitoral empresarial de TozziniFreire, ressalta que, com a dinamicidade da evolução tecnológica, é ideal que a eventual regulamentação estabeleça diretrizes gerais, sob pena de se tornar defasada com o tempo. "Também é importante considerar e manter compatibilidade com outros normativos que incidem na discussão como, por exemplo, o Marco Civil da Internet e a Lei Geral de Proteção de Dados."

Este ano, o TSE já divulgou o texto alterado das resoluções, prevendo, entre outros, que os chatbots não podem simular um diálogo direto com a pessoa do candidato(a) ou com outra pessoa real; os conteúdos editados com uso de recurso de IA para além de ajustes de qualidade, produção de elementos gráficos de identidade visual ou recursos de marketing costumeiro, necessariamente precisam apresentar uma rotulagem ou uma indicação de que houve utilização dessa tecnologia e os chamados "deep fakes" de vídeo e áudio estão expressamente proibidos. 

 

Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Ícone do whatsapp
Ícone do telegram

Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br

postado em 15/04/2024 03:55
x