TECNOLOGIA

Inteligência artificial: a era do 'deus' máquina

Da confecção de teses à "leitura de pensamentos", ferramentas de inteligência artificial parecem capazes de resolver qualquer problema. Especialistas não acreditam que os sistemas vão superar o homem

No teatro grego antigo, quando não havia solução para um impasse, um ator interpretando uma divindade descia ao palco pendurado num guindaste, resolvia o problema e, assim, acabava a peça. Era o Deus ex-machina — o deus surgido da máquina. Com o avanço sem precedentes da inteligência artificial (IA), é justo pensar que, no mundo contemporâneo, a máquina é a própria deidade.

Para ela, nada parece impossível. Da confecção de discursos em segundos à criação de obras de arte; da identificação de medicamentos promissores ao diagnóstico preciso de doenças, tudo é resolvido pelo "deus algoritmo". E, ao observar sua invenção "surgindo do guindaste", o homem pode se perguntar qual lugar ocupará neste enredo. Segundo especialistas, porém, o perigo não está na criatura e, sim, no uso que o criador faz dela.

A IA não é propriamente uma novidade. O marco histórico é o ratinho Theseus, programado em 1952 por Claude Shannon. Controlado remotamente, o roedor mecânico passeia por um labirinto até encontrar o queijo e é capaz de se lembrar do caminho percorrido. O objeto, que hoje é relíquia do Museu do Instituto de Tecnologia de Massachusetts (MIT), pode parecer simplório. Mas é considerado um dos — se não o — primeiros sistemas inteligentes já criados.

MIT/Divulgação - Theseus, um dos primeiros sistemas de inteligência artificial

Em sete décadas, muita coisa mudou. A inteligência artificial faz parte da rotina, ainda que não se perceba. O GPS que indica o percurso, a atendente virtual, o internet banking são exemplos de seu uso no dia a dia. Só que, até agora, ninguém temia os mecanismos de busca dos navegadores, os sistemas de reconhecimento facial dos condomínios ou a sugestão de filmes apresentadas pelos aplicativos de streaming.

Então, as máquinas começaram a gerar imagens perfeitas de pessoas inexistentes, escrever reportagens com acurácia, resolver enigmas matemáticos em frações de segundos, dirigir e voar sozinhas, elaborar defesas jurídicas e até "ler" pensamentos em experimentos científicos. A ponto de, em um editorial da revista Science, um grupo de cientistas pedir a moratória de pesquisas até alguma regulamentação ética da IA.

"A inteligência artificial agora é uma parte muito onipresente de nossas vidas cotidianas, portanto, há uma compreensão visceral de seu impacto", opina Subbarao Kambhampati, professor de engenharia da computação na Universidade Estadual do Arizona e presidente da Associação para o Avançado da IA, nos Estados Unidos. Ele se diz otimista sobre o potencial da tecnologia, mas reconhece que muitas pessoas estão preocupadas em dividir o mundo com máquinas pensantes.

Medo

"Elon Musk (magnata e empreendedor) iniciou essa tendência de medo da IA dizendo que o que o mantém acordado à noite é a ideia de máquinas superinteligentes que se tornarão mais poderosas que os humanos", destaca. "Declarações como essa, vindas de pessoas influentes, é claro que preocupam o público. Não tenho uma visão tão pessimista." Porém, Kambhampati reconhece que é preciso acompanhar com cautela os limites de uma tecnologia que, aparentemente, não tem fronteiras. "Devemos permanecer atentos a todas as ramificações dessa poderosa tecnologia e trabalhar para mitigar as consequências, como o deslocamento da força de trabalho, e estabelecer as melhores práticas e diretrizes éticas em todo o setor."

A discussão sobre riscos e avanços da IA ultrapassa o campo da ciência da computação; é também filosófica. Já na Grécia Antiga, filósofos questionavam a essência da inteligência e se esse era um atributo somente humano. Aristóteles, por exemplo, acreditava que objetos inanimados também pensavam, embora de forma distinta das pessoas. Já Platão entendia que o conhecimento era inato: uma máquina poderia até acessá-lo, mas não necessariamente o compreenderia.

Hoje, esse é um dos centros da discussão sobre IA: sistemas programados e alimentados por seres humanos poderão ultrapassar em astúcia seus criadores? Não, garante um dos maiores especialistas no tema, o cientista da computação francês Jean-Gabriel Ganascia, da Universidade de Sorbonne que, já em 1980, obteve mestrado em inteligência artificial em Paris. Membro da Associação Europeia de IA, ele tem se dedicado, nos últimos anos, a fazer palestras e escrever artigos sobre o tema.

 

PALAVRA DE ESPECIALISTA / Desinformação, o risco real

"O risco da IA deve, de fato, ser discutido e mitigado. No entanto, os riscos mais graves e imediatos para a humanidade não são a possibilidade de que a IA possa um dia se voltar contra nós autonomamente, como o robô HAL 9000 fez no filme 2001: Uma Odisseia no Espaço. Os riscos mais graves vêm da miopia humana em termos de usar IA para gerar e espalhar facilmente conteúdo falso altamente plausível, minando o conceito de verdade e tornando difícil saber em quem e no que confiar; a dependência da tecnologia de IA resultando em perda de empregos sem planos cuidadosos de requalificação profissional, com aumento irrevogável das desigualdades sociais e concentração de conhecimento e poder nas mãos de um pequeno número de grandes empresas de tecnologia; a perda de habilidades de pensamento crítico à medida que dependemos cada vez mais da IA para tarefas de raciocínio, levando à estupidez dos humanos. Acho que esses riscos, decorrentes do uso indevido da tecnologia de IA por humanos, devem receber a mais alta prioridade para que possamos colher os benefícios da IA, como novas descobertas científicas e avanços na saúde e na educação, ao mesmo tempo em que mitigamos sérios danos".

Maria Liakata, professora de Processamento Natural da Linguagem na Universidade Mary Queen, em Londres

 

 

É só um software

Cinco anos antes de os chatbots começarem a escrever poesia e produzir teses acadêmicas, o especialista em tecnologia da informação Jean-Gabriel Ganascia publicou um artigo na revista da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), discutindo mito e realidade no mundo das máquinas. O texto, de 2018, sustenta que a ideia de computadores superarem a humanidade fundamenta-se em mitos e lendas como a do Golem ou de Talos, figuras dotadas de vida. Com a ajuda de Elon Musk, do astrofísico Stephen Hawking e do futurista Ray Kurzweil, que fizeram declarações apoiando essa ideia, disseminou-se o medo de um mundo comandado por robôs.

Katherina Holmes/Divulgação - Interação de jovens com chatbots deve ser debatida, sustenta especialista 
 

"Ao contrário do que algumas pessoas alegam, as máquinas não oferecem nenhuma ameaça existencial à humanidade. Sua autonomia é puramente tecnológica", afirmou Ganascia. Recentemente, em uma palestra do projeto TED, o cientista da computação reafirmou que as máquinas "não têm vontade própria e permanecem subjugadas aos objetivos que damos a elas".

É o que pensa também John Behrens, diretor de iniciativas tecnológicas do Colégio de Artes e Letras Notre Dame, nos Estados Unidos. "Inteligência artificial é um tipo de software, e quanto mais as pessoas a tratarem dessa forma — e não como um ser robótico — melhor para nós", diz.

Para o especialista, erros e acertos na área da IA não estão vinculados ao "desejo" da máquina, mas ao uso que o humano faz dela. "Por exemplo, é apropriado que um jovem interaja com um chatbot se o software soa tão humano que o jovem se torna emocionalmente apegado e vulnerável?", questiona. "A questão fundamental, é que a tecnologia e suas aplicações estão evoluindo mais rápido do que as ciências sociais, as humanidades e as artes podem acompanhar."

Distração

Centralizar a discussões sobre IA em riscos potenciais de máquinas dominarem o mundo é distrair das questões éticas centrais, destaca Noel Sharkey, professor emérito de Inteligência Artificial e Robótica da Universidade de Sheffield, no Reino Unido. Como o homem está programando os sistemas para perpetuar padrões discriminatórios é mais importante que discutir sobre supostas rebeliões de robôs, acredita.

"A IA representa muitos perigos para a humanidade, mas não há ameaça existencial ou qualquer evidência de uma", argumenta Sharkey. "Muitos sistemas de IA empregados no policiamento, justiça, entrevistas de emprego, vigilância de aeroportos e até passaportes automáticos mostraram-se imprecisos e preconceituosos contra pessoas de cor, mulheres e pessoas com deficiência. Há muita pesquisa sobre isso e precisamos desesperadamente regular a IA. Procurar riscos que ainda não existem ou podem nunca existir desvia a atenção dos problemas fundamentais." (PO)

 

Leia amanhã: A IA nos cuidados à saúde

Saiba Mais

 

 

MIT/Divulgação - Theseus, um dos primeiros sistemas de inteligência artificial
Katherina Holmes/Divulgação - Interação de jovens com chatbots deve ser debatida, sustenta especialista 

É só um software

Cinco anos antes de os chatbots começarem a escrever poesia e produzir teses acadêmicas, o especialista em tecnologia da informação Jean-Gabriel Ganascia publicou um artigo na revista da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), discutindo mito e realidade no mundo das máquinas. O texto, de 2018, sustenta que a ideia de computadores superarem a humanidade fundamenta-se em mitos e lendas como a do Golem ou de Talos, figuras dotadas de vida. Com a ajuda de Elon Musk, do astrofísico Stephen Hawking e do futurista Ray Kurzweil, que fizeram declarações apoiando essa ideia, disseminou-se o medo de um mundo comandado por robôs.

"Ao contrário do que algumas pessoas alegam, as máquinas não oferecem nenhuma ameaça existencial à humanidade. Sua autonomia é puramente tecnológica", afirmou Ganascia. Recentemente, em uma palestra do projeto TED, o cientista da computação reafirmou que as máquinas "não têm vontade própria e permanecem subjugadas aos objetivos que damos a elas".

É o que pensa também John Behrens, diretor de iniciativas tecnológicas do Colégio de Artes e Letras Notre Dame, nos Estados Unidos. "Inteligência artificial é um tipo de software, e quanto mais as pessoas a tratarem dessa forma — e não como um ser robótico — melhor para nós", diz.

Para o especialista, erros e acertos na área da IA não estão vinculados ao "desejo" da máquina, mas ao uso que o humano faz dela. "Por exemplo, é apropriado que um jovem interaja com um chatbot se o software soa tão humano que o jovem se torna emocionalmente apegado e vulnerável?", questiona. "A questão fundamental, é que a tecnologia e suas aplicações estão evoluindo mais rápido do que as ciências sociais, as humanidades e as artes podem acompanhar."

Distração

Centralizar a discussões sobre IA em riscos potenciais de máquinas dominarem o mundo é distrair das questões éticas centrais, destaca Noel Sharkey, professor emérito de Inteligência Artificial e Robótica da Universidade de Sheffield, no Reino Unido. Como o homem está programando os sistemas para perpetuar padrões discriminatórios é mais importante que discutir sobre supostas rebeliões de robôs, acredita.

"A IA representa muitos perigos para a humanidade, mas não há ameaça existencial ou qualquer evidência de uma", argumenta Sharkey. "Muitos sistemas de IA empregados no policiamento, justiça, entrevistas de emprego, vigilância de aeroportos e até passaportes automáticos mostraram-se imprecisos e preconceituosos contra pessoas de cor, mulheres e pessoas com deficiência. Há muita pesquisa sobre isso e precisamos desesperadamente regular a IA. Procurar riscos que ainda não existem ou podem nunca existir desvia a atenção dos problemas fundamentais." (PO)

 

Desinformação, o risco real

"O risco da IA deve, de fato, ser discutido e mitigado. No entanto, os riscos mais graves e imediatos para a humanidade não são a possibilidade de que a IA possa um dia se voltar contra nós autonomamente, como o robô HAL 9000 fez no filme 2001: Uma Odisseia no Espaço. Os riscos mais graves vêm da miopia humana em termos de usar IA para gerar e espalhar facilmente conteúdo falso altamente plausível, minando o conceito de verdade e tornando difícil saber em quem e no que confiar; a dependência da tecnologia de IA resultando em perda de empregos sem planos cuidadosos de requalificação profissional, com aumento irrevogável das desigualdades sociais e concentração de conhecimento e poder nas mãos de um pequeno número de grandes empresas de tecnologia; a perda de habilidades de pensamento crítico à medida que dependemos cada vez mais da IA para tarefas de raciocínio, levando à estupidez dos humanos. Acho que esses riscos, decorrentes do uso indevido da tecnologia de IA por humanos, devem receber a mais alta prioridade para que possamos colher os benefícios da IA, como novas descobertas científicas e avanços na saúde e na educação, ao mesmo tempo em que mitigamos sérios danos".

Maria Liakata, professora de Processamento Natural da Linguagem na Universidade Mary Queen, em Londres