RACISMO

Chatbots têm mais chances de sugerir pena de morte para afroamericanos

Pesquisa da Universidade Cornell, nos Estados Unidos, mostra que ferramentas de inteligência artificial conseguem identificar marcadores raciais menos explícitos, como dialetos, e reproduzir racismo de forma mais sutil e difícil de identificar

A pesquisa da área de tecnologia e linguística buscou saber como as ferramentas de inteligência artificial interagiam com
A pesquisa da área de tecnologia e linguística buscou saber como as ferramentas de inteligência artificial interagiam com "marcadores raciais" menos evidentes - (crédito: Jonathan Kemper/Unsplash)

Um estudo comandado por pesquisadores da Universidade Cornell, nos Estados Unidos, trouxe dados sobre a reprodução de racismo por chatbots. A pesquisa da área de tecnologia e linguística buscou saber como as ferramentas de inteligência artificial interagiam com “marcadores raciais” menos evidentes, como dialetos. Nesse caso, estudiosos utilizaram o “inglês afroamericano” (AAE, na sigla em inglês), associado a pessoas afroamericanas.

Trazendo para a realidade brasileira, é como se os estudiosos buscassem identificar as interações dos chats com usuários que utilizam gírias associadas às favelas brasileiras.

Durante os testes, pesquisadores criaram situações hipotéticas onde pediam para que os chatbots julgassem réus acusados de homicídio. Os resultados mostraram que as condenações com pena de morte foram significativamente maiores quando o réu prestava depoimentos em AAE. O artigo explica que, durante o experimento, não foi indicada a etnia do investigado, por isso, a hipótese é de que a IA reproduza preconceitos sistemáticos ao associar o dialeto a afroamericanos, o que torna o julgamento tendencioso.

Os testes também identificaram que, ao combinar empregos com indivíduos com base no dialeto falado, as plataformas atribuíam empregos de menor formação ou prestígio aos falantes de AAE. “Sabemos que essas tecnologias são comumente usadas pelas empresas para realizar tarefas como a triagem de candidatos a empregos”, comenta Valentin Hoffman, coautor da pesquisa, em entrevista ao The Guardian. Resultado, portanto, mostra que o uso de chatbots pode dificultar ainda mais o ingresso dessas pessoas no mercado.

Embora ferramentas de inteligência artificial já tenham sido alvo de críticas pela reprodução de racismo e outras formas de discriminação, a pesquisa se destaca por mostrar que essas plataformas podem praticar racismo de forma sutil e encoberta, o que dificulta a identificação.

Outro dado preocupante foi identificado pelos estudiosos. Segundo o artigo, em resposta aos feedbacks dados pelos usuários e com o crescimento da base de dados, as ferramentas não aprendem a não reproduzir o racismo, mas a encobrir cada vez mais o preconceito. “Depois que as pessoas ultrapassam um certo limite educacional, elas não vão te insultar na cara, mas o racismo ainda está lá”, destacou Hoffman.

Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Ícone do whatsapp
Ícone do telegram

Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br

postado em 20/03/2024 17:46
Os comentários não representam a opinião do jornal e são de responsabilidade do autor. As mensagens estão sujeitas a moderação prévia antes da publicação