Janildo Maia Azevedo de Souza - Advogado do Rueda & Rueda Advogados, especializado em direito empresarial, com graduação em gestão em T.I.
Além da pandemia, 2020 também entra para a história como um ano definidor da área de tecnologia da informação. Em primeiro lugar, porque ao longo da quarentena foi agregada uma enxurrada de dados aos acervos de big data. Essa enorme quantidade de informação, que ainda precisará ser catalogada e avaliada com cautela, decorre do uso massivo da rede pelas pessoas do mundo todo que aderiram ao confinamento e passaram a consumir e alimentar esses bancos de forma massiva. Esse grande conjunto de dados colhidos, necessariamente, precisará de um tratamento transparente, imparcial e justo, sob pena das inteligências artificiais (IAs) já implementadas massificarem validações de tópicos sensíveis ainda passíveis de uma discussão mais ampla.
Nesse cenário indelével, os atores jurídicos precisarão estar presentes na vanguarda da tomada de decisões quanto à operacionalidade ética e moral das validações dos algoritmos das IAs, não só para salvaguardar possível judicialização relativa aos direitos de imagem, responsabilidade civil e dos direitos coletivos como um todo, como também garantir dentro das empresas a minimização de perdas, sejam elas financeiras advindas de condenações judiciais, sejam de caráter social derivado das relações públicas perante a sua comunidade consumidora.
No mesmo sentido, carece, tal problemática, de uma atenção acadêmica ampla, relacionada com diversos ramos profissionais e de projeção/interação internacional. A necessidade da criação de um grupo de trabalho multidisciplinar corporificado como um ente internacional opinativo deve ser discutido em assembleias específicas como os encontros da Organização das Nações Unidas (ONU), Organização para a Cooperação e Desenvolvimento Econômico (OCDE), Organização Mundial do Comércio (OMC) e Organização Internacional do Trabalho (OIT) de forma primordial, a fim de contemplar essas urgentes discussões, que naturalmente permeiam um futuro premente e implacável.
A importância do tema é tanta que a Alphabet Inc., holding proprietária do Google, iniciou uma revisão da política ética aplicada à sua inteligência artificial. O novo procedimento de revisão da Alphabet Inc. pede que os pesquisadores consultem as equipes jurídicas e de políticas de relações públicas antes de abordar “tópicos sensíveis” — como análise de rostos, sentimento por reações biomecânicas, além de categorização de raça, gênero ou afiliação política — de acordo com uma dita “nova” ressignificação dos parâmetros de validação (moral e ético) dos algoritmos conduzidos pela I.A. da empresa. A grande problemática surge quando avaliamos, em um contexto jurídico/social, a validação dos tais “tópicos sensíveis”.
Esse tipo de IA, com aprendizado baseado no Deep Learning (modelo que imita a modelagem do cérebro para conectar diversos sistemas como um neurônio humano, criando relações entre padrões distintos), é usado amplamente pelas maiores corporações de tecnologia do mundo, e o impacto em nossas vidas são, hoje, alvo de pesquisadores nos mais conceituados centros de estudos. A extensa pesquisa no desenvolvimento de IA em toda a indústria de tecnologia levou as autoridades nos Estados Unidos, no Reino Unido, na França e em outros países a propor regras para seu uso.
Nos últimos dois anos, foram publicados diversos estudos científicos que tentam demonstrar que o software de análise facial, voz e outras aplicações dessa IA podem perpetuar preconceitos, difundir inverdades e corroer a privacidade. Com o último bastião do livre arbítrio quebrado (leitura de reações biomecânicas do organismo humano), as I.As estão a um passo de catalogar o ser humano por completo, entender suas emoções, sentimentos e reações orgânicas que nem mesmo nós, indivíduos, conseguiríamos compreender. É nesta questão que o aprendizado da máquina passa por uma revisão ética de seus procedimentos e assertividade.
A Alphabet Inc. promove, no momento, uma reavaliação do aprendizado auferido por meio das informações colhidas na deep learning. O alvo, em um primeiro momento, é readequar as validações apreendidas pela máquina com o objetivo de evitar discriminação (racial, intelectual, étnica, morfológica etc.), que, por ventura, sejam perpetuadas pela Inteligência artificial na aferição/avaliação dos dados coletados.
Um algoritmo de IA mal otimizado ou mal treinado pode trazer sérios problemas jurídicos às empresas num futuro próximo. Observa-se, em algumas aplicações, como o reconhecimento de voz e facial, claros identificadores preconceituosos, que generalizam raças humanas, não conferindo aos asiáticos, por exemplo, identificação racial própria, catalogando todos como “indivíduos do sudeste asiático”. Imagine o exemplo acima, inconcebível aceitar que um sul coreano seja impedido por uma IA de adentrar em um voo para Nova York por causa de um surto de vírus da gripe identificado em Tóquio, sendo o mesmo confundido com um cidadão japonês.
Notícias pelo celular
Receba direto no celular as notícias mais recentes publicadas pelo Correio Braziliense. É de graça. Clique aqui e participe da comunidade do Correio, uma das inovações lançadas pelo WhatsApp.
Dê a sua opinião
O Correio tem um espaço na edição impressa para publicar a opinião dos leitores. As mensagens devem ter, no máximo, 10 linhas e incluir nome, endereço e telefone para o e-mail sredat.df@dabr.com.br.