Há centenas de anos, o ser humano vem estudando e tentando elucidar o que o distingue dos animais. A Biologia, a Sociologia, a Antropologia e até a Filosofia se alimentam desta questão existencial. O próprio Direito já estabeleceu que certos grupos de animais, em certas circunstâncias, podem ser considerados "pessoas jurídicas".
E a inteligência artificial? Terá ela direitos? Terá direito... à vida?
O desenvolvimento hipersônico da inteligência artificial fez surgir um novo elemento — talvez O Quinto Elemento,
No filme Blade Runner – O Caçador de Androides (1982), já era difícil diferenciar os seres humanos dos robôs.
Quase sempre, a emoção era o fator humano que fazia com que os robôs e as máquinas caíssem na armadilha e se revelassem, embora as lágrimas na chuva do androide replicante Roy Batty sejam as mais emocionantes da história da ficção científica no cinema.
Mas o que irá acontecer a partir de agora? O que será humano quando a inteligência artificial ocupar tudo? Que teste iremos inventar para detectá-la?
1. A geração espontânea
Um dos aspectos notáveis que separam os seres humanos da inteligência artificial é a geração espontânea de ações e conhecimento – o impulso.
O ser humano é um criador espontâneo do todo. Uma pessoa pode acordar algum dia e imaginar uma ideia, uma história ou um poema, um pensamento criativo.
A partir da sua história pessoal, o ser humano cria novos conhecimentos, novas histórias e novas experiências. E não existe Inteligência artificial que gere conhecimento ou realize ações espontaneamente.
Em um artigo publicado na revista Nature, os cientistas Miguel Aguilera e Manuel Bedia, da Universidade de Zaragoza, na Espanha, concluíram que é possível chegar a uma inteligência que gere mecanismos para adaptar-se às circunstâncias.
Isso poderia ser similar à ação espontânea, mas está distante de ser um ato produzido pela vontade. Toda ação realizada pela inteligência artificial é projetada e programada por uma pessoa.
Por isso, improvisar em uma banda de jazz continuará sendo privilégio dos seres humanos.
2. A regra da ética
O que nos leva à segunda grande diferença: a ética.
A inteligência artificial e as máquinas, intrinsecamente, não têm ética. É preciso incuti-la. Elas seguem apenas parâmetros pré-estabelecidos, regras claras e precisas do que precisa ser feito.
O ser humano dispõe de um regulamento (constituição, leis, religião etc.) sobre o que deve fazer e também tem claro o que não deve fazer. Mas a ética é mais do que um regulamento; ela vai além da simples orientação.
A ética é, nada mais, nada menos, o discernimento entre o bem e o mal. Ela é tão importante na nossa espécie que já se descobriu que bebês de cinco meses fazem julgamentos morais e agem de acordo com eles.
Quem tem ética são as pessoas que programam as máquinas e a inteligência artificial.
Uma máquina não é boa, nem ruim. Ela é eficaz. Ela faz o que a mandam fazer e para o que foi programada.
É claro que é possível programar ética. O físico espanhol José Ignacio Lattore explica esta questão no seu livro Ética para Máquinas. Para ele, "a inteligência artificial irá se sentar no Conselho de Ministros".
Atualmente, o ChatGPT está programado para não difundir conteúdo sensível e não oferece acesso à deep web. Por isso, é possível programar com base nas ideias de ser e do que deve ser. No entanto, à medida que o tempo passa e os parâmetros éticos se modificam, eles devem ser corrigidos para que a base normativa da inteligência artificial vá ao encontro à do ser humano.
3. A intenção só pode ser humana
Outro aspecto importante é a intenção, e a intenção das ações humanas está intrinsecamente relacionada com a moralidade.
No seu livro Intenção, a filósofa britânica Elizabeth Anscombe (1919-2001) defende que a intenção não pode se restringir a meros desejos ou estados psicológicos internos.
Para ela, a intenção é uma característica essencial da ação e está intrinsecamente relacionada com a responsabilidade moral. Por isso, não é possível separar a intenção da ação propriamente dita, determinando se um ato é moralmente correto ou incorreto.
Elizabeth Anscombe critica as teorias éticas centralizadas apenas nas consequências das ações, sem considerar a intenção que as antecipa.
Por não possuir ética e moral, a inteligência artificial não possui intenção. A intenção continua sendo restrita ao programador.
Mas cada um dos três aspectos listados até aqui exige páginas e mais páginas para esclarecimento.
4. Sem remoer-se e sem problemas psicológicos
É quase provocador perguntar quais são as diferenças e não as similaridades.
As diferenças são claras. A IA não tem experiências, nem história. Não tem psicologia, nem problemas psicológicos. Não fica remoendo suas ações, o que é um aspecto fundamental da sua separação da ética e da moral.
A IA não ama, nem é amada. Não sofre, nem sente dor. Não tem opinião própria, porque nada é próprio dela.
Se o ChatGPT sair de moda (o que duvido) e não for mais consultado, sua existência é inútil. Ele só existe se for útil para o ser humano. Não tem identidade – sua identidade é uma construção humana.
A IA também pode ser destrutiva. Ela pode não só eliminar milhões de empregos em todo o mundo, mas também causar uma posição reduzida no mundo produtivo, sem falar nas especulações apocalípticas da ficção científica.
Por fim, tudo depende do próprio ser humano. A decisão de utilizar a inteligência artificial como ferramenta construtiva ou destrutiva está em nossas mãos.
Mas, se alguém, no futuro próximo, duvidar da sua natureza, vamos incluir na sua alma sintética uma armadilha – um piscar de olhos que nos recorde, em caso de necessidade, que estamos tratando com um elemento não humano: um quinto elemento.
* Agustín Joel Fernandes Cabal é pesquisador em pós-doutorado em filosofia da Universidade de Santiago de Compostela, na Espanha.
Este artigo foi publicado originalmente no site de notícias acadêmicas The Conversation e republicado sob licença Creative Commons. Leia aqui a versão original em espanhol.