Por Rodrigo Badaró* —Neofobia é um fenômeno que afeta nossa disposição de abraçar o desconhecido e que difere do simples medo, resposta natural de sobrevivência que se manifesta como relutância em experimentar coisas novas, por trazer em si um aspecto de limitação paralisante que alcança diversas esferas da vida, dentre elas, a adoção de novas tecnologias.
O surgimento das primeiras obras de ficção científica, que prontamente seduziram o imaginário coletivo, trouxe consigo um misto de curiosidade, euforia e medo. Nesse contexto, o tema da inteligência artificial, costumeiramente abordado em tais obras como um risco à espécie humana, traz em si forte potencial de abalo das estruturas sociais, razão pela qual o debate sobre a sua regulação tornou-se uma necessidade mundial.
Especificamente no Brasil, a discussão regulatória em curso no Senado Federal (PL nº 2.338/23) ganhou especial relevância com a proximidade das eleições municipais, a partir de questionamentos quanto ao potencial de interferência da referida tecnologia na liberdade de escolha do eleitor. Sobre o tema, o professor da USP Juliano Maranhão definiu bem o problema em recente artigo escrito na Folha de S.Paulo, ao apontar o fato de que os deepfakes gerados por IA realmente potencializam a desinformação, permitindo a circulação de conteúdos extremos, e falsos, no período próximo à votação.
Pondera acertadamente, contudo, que o vilão nessa prática não é a máquina, mas sim o manipulador humano. Para ele, a preocupação social pelo uso adequado da tecnologia é bem-vinda e exige, sem proibição de uso, a regulação dos partidos e da atuação dos candidatos, com a cooperação das plataformas para a moderação eficaz de conteúdos. Sua conclusão em forma de alerta merece reverberação: "...o alarme para uma eleição catastrófica em função da IA pode, em vez de evitar, criar um cenário de desinformação, no qual se perderá completamente a referência sobre a verdade, fazendo com que o resultado das eleições se torne uma loteria sombria".
Estaríamos realmente vivenciando a ciência extraordinária e a quebra de paradigmas, na melhor concepção trazida por Thomas Kuhn em sua A Estrutura das Revoluções Científicas (1962), ou estamos simplesmente diante de mais um período de evolução normal e cumulativa da ciência, que sofre ataques conscientemente formulados por alguns que ganham e possuem interesse financeiro ou de controle de comportamentos sociais, a partir da criação artificial de um risco cuja racionalidade da análise é impedida pela utilização de um argumento ad terrorem.
Afastando a questão das reflexões de natureza filosófica e trazendo-a para o terreno do sistema de Justiça brasileiro, verifica-se, contudo, que os receios estão a merecer consideração. Na advocacia, são inúmeros os escritórios que já se valem do uso de alguma inovação para organização inteligente, bem como diversos tribunais, agências e órgãos de controle seguem investindo em alguma espécie de IA.
Tem-se conhecimento de aproximados 111 projetos em andamento, e 64 em fase já avançada. Sabe-se que a AGU e o TCU também já caminham na estrada de experiências generativas, sem deixar à margem os movimentos já existentes no STF, STJ, e MP, que já ostentam uma política nacional de inovação digital denominada "MP Digital".
A fim de evitar os problemas ocorridos no passado, quando a implementação do processo eletrônico foi conduzida de maneira isolada pelos tribunais, sem ouvir a OAB, o MP, os jurisdicionados e muito menos o CNJ, resultando na criação de sistemas incompatíveis que impediam um tratamento uniforme em nível nacional, o tema da IA demanda uma abordagem estruturada de amplitude horizontal e vertical. Daí porque, merecedora de elogios a iniciativa do CNJ, sob a presidência do visionário Ministro Barroso e com a experiente coordenação do conselheiro Bandeira de Mello, de criar por meio da Portaria nº 338/2023, o Grupo de Trabalho que tem por objetivo realizar estudos e apresentar proposta de regulamentação do uso de sistemas de inteligência artificial generativa baseada em grandes modelos de linguagem no Poder Judiciário.
O grupo, composto por acadêmicos, membros do Ministério Público, juízes, ministros e advogados, focará seus esforços na elaboração de norma que regulamente a utilização de recursos de IA a partir de valores éticos fundamentais como a dignidade e a centralidade da pessoa humana, o respeito aos direitos humanos, a não discriminação, a transparência e a responsabilização.
Paralelamente a esse movimento do Judiciário, e em resposta à provocação de um cidadão brasileiro que se dirigiu ao CNMP em processo, sob minha relatoria, requerendo a suspensão do uso da IA por todo o MP brasileiro, cerrei fileiras com o Conselheiro Moacyr Reis, coordenador do "MP Digital", e apresentamos ao plenário do CNMP proposta de recomendação que visa a fomentar o desenvolvimento, a implantação e o uso seguro e responsável da IA no âmbito do MP brasileiro, com fiel observância, dentre outros, a princípios e valores como privacidade, segurança, proteção de dados e autodeterminação informativa, participação humana no ciclo da IA e supervisão humana efetiva, transparência, prestação de contas e responsabilização, respeito aos direitos humanos e aos valores democráticos.
O terceiro pilar do sistema de Justiça, a advocacia, também tem se mantido atento às discussões sobre o tema. Tanto a nacional como diversas seccionais vêm realizando estudos e debates por meio de suas diretorias e comissões de direito digital, proteção de dados e inteligência artificial.
No âmbito da OAB nacional, registre-se, foi apresentado recentemente projeto de criação do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados, que servirá de apoio para a diretoria nacional acompanhar a implementação de novas tecnologias e debates regulatórios na esfera administrativa e dentro do sistema de justiça, sempre buscando a defesa das prerrogativas dos advogados, transparência e segurança jurídica.
O medo do novo é um sentimento favorável à evolução quando nos impõe o avanço com cautela. O aprimoramento do estudo e treinamento dos gestores públicos e agentes do sistema de Justiça é imprescindível, pois a desmitificação de falsas premissas ou preconceitos se dá com amplo conhecimento das novas tecnologias e debate sobre os graus de risco e consequências, mesmo que numa visão hipotética, de possíveis danos.
As máquinas estão evoluindo, mas somente porque nós humanos assim queremos. Nós é que pensamos e construímos raciocínios inéditos, não vinculados a dados e a uma suposta e inexistente semântica algorítmica, com sentimento e emoção. É o que sempre diferenciará criador e criação.
*Advogado, conselheiro do Conselho Nacional do Ministério Público, presidente da Comissão Nacional de Proteção de Dados da OAB Nacional e integrante do grupo de trabalho do CNJ sobre Inteligência artificial