Inteligencia Artificial

Como funciona o LaMDA, cérebro artificial do Google 'acusado' por engenheiro de ter consciência própria

O engenheiro do Google, Blake Lemoine, que foi afastado da empresa disse que o LaMDA tem consciência própria

BBC
Alicia Hernández @por_puesto - BBC News Mundo
postado em 17/06/2022 17:21 / atualizado em 17/06/2022 17:21
O LaMDA é um cérebro artificial abrigado na nuvem. Sua alimentação é composta de milhões de textos e ele próprio faz seu autotreinamento -  (crédito: Getty Images)
O LaMDA é um cérebro artificial abrigado na nuvem. Sua alimentação é composta de milhões de textos e ele próprio faz seu autotreinamento - (crédito: Getty Images)

Uma máquina pensante e consciente. Foi assim que o engenheiro do Google Blake Lemoine definiu o LaMDA — o sistema de inteligência artificial do Google.

Lemoine foi afastado de suas funções pela empresa.

"Nossa equipe — que inclui especialistas em ética e tecnologia — revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou de que as evidências não respaldam suas alegações", afirmou Brian Gabriel, porta-voz do Google, em comunicado.

Mas como funciona essa máquina?

Se nos lembrarmos dos antigos filmes de ficção científica, poderemos imaginar LaMDA como um robô que assume a forma humana, abre os olhos, ganha consciência e fala. Ou como HAL-9000, o supercomputador do filme 2001: Uma Odisseia no Espaço — que, em uma paródia de Os Simpsons, ganha a voz de Pierce Brosnan no original em inglês, apaixona-se por Marge e quer matar Homer.

Mas a realidade é um pouco mais complexa. O LaMDA é um cérebro artificial e está abrigado na nuvem. Sua alimentação é composta por milhões de textos e ele próprio faz seu treinamento. Mas, por outro lado, age como um papagaio.

Muito complicado? Vamos por partes, para entender melhor.

Linhas de código e circuitos sobre um fundo escuro
Getty Images
O LaMDA é uma enorme rede neural que treina a si mesma

Supercérebro

O LaMDA (sigla em inglês para Modelo de Linguagem para Aplicativos de Diálogo) foi projetado pelo Google em 2017. Sua base é um transformer, ou seja, um emaranhado de redes neuronais artificiais profundas.

"Essa rede neuronal treina a si própria com grandes quantidades de texto. Mas o aprendizado tem um objetivo, que é apresentado na forma de um jogo. Ela tem uma frase completa, mas falta uma palavra, e o sistema precisa adivinhá-la", explica Julio Gonzalo Arroyo, professor da Uned (Universidade Nacional de Educação à Distância), na Espanha, e principal pesquisador do departamento de processamento de linguagem natural e recuperação de informações.

O sistema joga consigo mesmo. Ele coloca palavras por tentativa e erro e, quando erra, age como se fosse um caderno de atividades infantis — olha as últimas páginas, vê a resposta correta e assim vai corrigindo e refinando os parâmetros.

E ele também "identifica o significado de cada palavra e observa as outras palavras em torno dela", segundo Gonzalo Arroyo. Assim, ele se torna especialista em prever padrões e palavras. É um processo similar à previsão de texto dos telefones celulares, mas elevado à enésima potência, com uma memória muito maior.

Respostas de qualidade, específicas e com interesse

Mas o LaMDA também cria respostas fluidas e espontâneas — e, segundo o Google, com capacidade de recriar o dinamismo e reconhecer as nuances da conversa humana. Em resumo: que não pareçam ter sido criadas por um robô.

Estruturas de rede e semicondutores
Getty Images
O LaMDA tem uma capacidade extraordinária de intuir quais são as palavras mais adequadas em cada contexto

Essa fluidez é um dos objetivos do Google, segundo indica seu blog de tecnologia. E eles afirmam que conseguem atingir esse objetivo, assegurando que as respostas sejam de qualidade, específicas e que demonstrem interesse.

Para que tenham qualidade, as respostas precisam fazer sentido. Se eu disser ao LaMDA, por exemplo, "comecei a tocar guitarra", ele deve responder algo relacionado à minha informação, não qualquer coisa sem sentido.

Para que o segundo objetivo seja cumprido (a resposta específica), o LaMDA não deveria responder com "muito bem", mas sim algo mais específico, como: "qual marca de guitarra você prefere, Gibson ou Fender?"

E, para que o sistema forneça respostas que demonstrem interesse e perspicácia, ele deve atingir um nível mais elevado. Por exemplo: "a Fender Stratocaster é uma boa guitarra, mas a Red Special de Brian May é única".

O segredo para responder com esse nível de detalhamento é o autotreinamento. "Depois de ler bilhões de palavras, [o sistema] tem uma capacidade extraordinária de intuir quais são as palavras mais adequadas em cada contexto."

Robô de IA
Getty Images
'Não faz sentido antropomorfizar os modelos de conversa atuais', segundo o Google

Para os especialistas em inteligência artificial, transformers como o LaMDA representam um desafio porque "permitem processamento [de informações ou textos] muito eficiente e produziram uma autêntica revolução no campo do processamento da linguagem natural".

Segurança e tendência

Outro objetivo do treinamento do LaMDA é não criar "conteúdo violento ou desumano, não promover calúnias nem discursos de ódio contra grupos de pessoas e não conter blasfêmias", segundo o blog de inteligência artificial (IA) do Google.

Também se deseja que as respostas sejam baseadas em fatos e que haja fontes externas conhecidas.

"Com o LaMDA, estamos adotando um enfoque cuidadoso e ponderado para levar mais em conta preocupações válidas sobre imparcialidade e veracidade", afirma Brian Gabriel, porta-voz do Google.

Ele defende que o sistema já passou por 11 revisões diferentes dos Princípios da IA, "além de uma pesquisa rigorosa e testes baseados em medidas fundamentais de qualidade, segurança e da capacidade do sistema de produzir declarações baseadas em fatos".

Mas como fazer com que um sistema como o LaMDA não seja tendencioso, nem apresente mensagens de ódio? "O segredo é selecionar quais dados [quais fontes de texto] devem ser alimentados no sistema", afirma Gonzalo Arroyo.

Mas isso não é fácil. "A nossa forma de comunicação reflete nossas tendências e as máquinas aprendem isso. É difícil eliminá-las dos dados de treinamento sem perder a representatividade", explica ele.

Ou seja, é possível que surjam tendências.

Circuito de um cérebro de inteligência artificial
Getty Images
'Nós, seres humanos, somos enganados com relativa facilidade', afirma o professor espanhol Julio Gonzalo Arroyo

"Se você alimenta notícias sobre a rainha Letícia [da Espanha], todas comentando quais roupas ela usa, é possível que, quando alguém pergunte sobre ela ao sistema, ele repita esse padrão machista e fale das roupas e não de outras coisas", destaca o professor.

Papagaio cantor

Em 1966, foi projetado um sistema chamado ELIZA que aplicava padrões muito simples para simular o diálogo de uma psicoterapeuta.

"O sistema incentivava o paciente a contar mais, seja qual fosse o tema da conversa, e acionava padrões como 'se mencionar a palavra família, pergunte como é a relação com sua mãe'", conta Gonzalo.

Algumas pessoas chegaram a pensar que ELIZA realmente era uma terapeuta — até afirmavam que os havia ajudado. "Nós, seres humanos, somos enganados com relativa facilidade", afirma Gonzalo Arroyo.

Para ele, a afirmação de Lemoine de que o LaMDA ganhou consciência de si mesmo "é um exagero". Segundo o professor, declarações como a de Lemoine não ajudam a manter um debate saudável sobre a inteligência artificial.

"Ouvir esse tipo de bobagem não é benéfico. Corremos o risco de que vire mania e as pessoas pensem que estamos em modo Matrix, com as máquinas prontas para acabar conosco. Isso é algo remoto, é utópico. Não acredito que ajude a ter uma conversa ponderada sobre os benefícios da inteligência artificial", segundo Gonzalo Arroyo.

Por mais que a conversa seja fluida, de qualidade e específica, "não passa de uma gigantesca fórmula que ajusta os parâmetros para prever melhor a palavra seguinte. Ele não tem a menor ideia do que está falando."

A resposta do Google é similar. "Esses sistemas imitam os tipos de intercâmbio encontrados em milhões de frases e podem falar sobre qualquer tema fantástico. Se perguntarmos como é ser um dinossauro congelado, eles podem gerar textos sobre o derretimento, o rugido etc.", explica Gabriel, do Google.

As pesquisadoras norte-americanas Emily Bender e Timnit Gebru compararam esses sistemas de criação de linguagem com "papagaios aleatórios", que repetem palavras ao acaso.

Por isso, como disseram os pesquisadores espanhóis Ariel Guersenvaig e Ramón Sangüesa, transformers como o LaMDA entendem tanto o que escrevem quanto um papagaio cantando.


- Este texto foi originalmente publicado em https://www.bbc.com/portuguese/geral-61845144

Sabia que a BBC está também no Telegram? Inscreva-se no canal.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!

Notícias pelo celular

Receba direto no celular as notícias mais recentes publicadas pelo Correio Braziliense. É de graça. Clique aqui e participe da comunidade do Correio, uma das inovações lançadas pelo WhatsApp.


Dê a sua opinião

O Correio tem um espaço na edição impressa para publicar a opinião dos leitores. As mensagens devem ter, no máximo, 10 linhas e incluir nome, endereço e telefone para o e-mail sredat.df@dabr.com.br.

Footer BBC