Essa foi a conclusão a que chegou um estudo promovido pela Universidade de Cornell, nos Estados Unidos.
Segundo o estudo, a IA acaba reproduzindo características das interações humanas, o que inclui reagir favoravelmente quando as perguntas são acompanhadas por palavras educadas, valorizando a etiqueta.
“A linguagem educada na comunicação humana frequentemente gera maior conformidade e eficácia, enquanto a grosseria pode causar aversão, o que afeta a qualidade da resposta”, diz o texto do estudo.
“Avaliamos o impacto da polidez nos prompts em LLMS (comando dado a um sistema de IA) em tarefas de inglês, chinês e japonês. Descobrimos que prompts indelicados frequentemente resultam em desempenho ruim, mas uma linguagem excessivamente polida não garante melhores resultados”, acrescenta o trabalho.
Ou seja, a linguagem também tem um impacto nas respostas dadas pela inteligência artificial. Ela absorve padrões linguísticos e culturais, o que explica essas diferenças.
O estudo identificou que em japonês o alto nível de polidez tem melhores resultados nas respostas da IA que em inglês.
“Nossas descobertas destacam a necessidade de considerar a polidez no processamento de linguagem natural intercultural e no uso de LLMS”, pontua o estudo.
Pesquisas anteriores já haviam identificado que a cortesia digital pode trazer melhores resultados no uso de ferramentas de inteligência artificial.
Pesquisadores da Microsoft, da Universidade Normal de Beijing e da Academia Chinesa de Ciências publicaram um artigo no início de 2024 constatando que modelos de IA generativa tiveram melhor performance quando foram tratados com polidez.
Além disso, o estudo demonstrou que fazer perguntas ressaltando a importância ou urgência do pedido também é determinante para a qualidade das respostas.
De acordo com a cientista Nouha Dziri, do Instituto Allen para IA, solicitações emotivas “ativam” mecanismos dos modelos que não são trabalhados em solicitações comuns.
“Ser mais gentil implica articular seus pedidos de uma maneira que esteja alinhada com o padrão de conformidade no qual os modelos foram treinados, o que pode aumentar a probabilidade de eles entregarem a saída desejada”, explicou Dziri.
A cientista enfatizou, porém, que gentileza não leva o modelo a resolver “todos os problemas de raciocínio sem esforço”, pois o modelo não desenvolve “capacidades de raciocínio semelhantes às de um humano”.
Recentemente, o bilionário da tecnologia Sam Altman, CEO da OpenAI, reconheceu que os usuários que se dirigem educadamente a seus chatbots de IA geram custos adicionais à sua empresa.
“São dezenas de milhões de dólares muito bem gastos”, escreveu Altman no X ao responder um usuário sobre a perda em “custos de eletricidade” da OpenAI com pessoas que dizem “por favor” e “obrigado” a seus modelos.
“Quando percebe a educação, é mais provável que responda de forma educada”, diz um memorando da Microsoft WorkLab sobre a IA generativa.
Pesquisa de 2024 indicou que 67% dos americanos usam termos gentis com os chatbots, sendo que 55% deles declararam que agem assim “porque é a coisa certa a fazer”.
Outros 12% dos que afirmaram usar de educação alegaram fazer isso para “apaziguar o algoritmo em caso de uma revolta da IA”.