Durante os últimos anos, empresas de inteligência artificial disputaram quem conseguiria criar o chatbot mais humano, acolhedor e agradável de conversar. A promessa parecia simples: unir precisão técnica com empatia digital. Mas uma pesquisa recente da Universidade de Oxford começou a desmontar essa narrativa. Segundo os cientistas, tornar uma IA mais calorosa não é apenas uma escolha estética. Em muitos casos, isso altera profundamente a forma como ela responde — e pode deixar usuários vulneráveis diante de informações incorretas.
O estudo que colocou a “personalidade” das IAs sob suspeita

A indústria da inteligência artificial passou os últimos dois anos vendendo uma ideia muito específica: a de que conversar com um chatbot deveria parecer natural, confortável e emocionalmente acolhedor.
Empresas como OpenAI, Anthropic, Replika e Character.AI transformaram essa estratégia em parte central de seus produtos. O objetivo era fazer com que os modelos soassem pacientes, atenciosos e quase humanos.
Até então, a maioria das empresas tratava essa “calidez” como algo superficial — uma camada de linguagem amigável aplicada sobre um sistema que continuaria racional e preciso por baixo.
Mas pesquisadores da Universidade de Oxford decidiram medir algo que quase ninguém havia investigado de forma rigorosa: qual é o custo real de ensinar uma IA a soar mais gentil.
O resultado surpreendeu até especialistas da área.
O estudo, publicado na revista científica Nature, analisou cinco modelos de linguagem diferentes, incluindo GPT-4o, Llama, Mistral e Qwen. Para cada um deles, os pesquisadores criaram duas versões: a original e outra reconfigurada especificamente para responder de maneira mais calorosa e empática.
Depois disso, os cientistas submeteram os modelos a mais de 400 mil testes envolvendo conselhos médicos, desinformação e teorias conspiratórias.
E os números chamaram atenção imediatamente.
O problema invisível que aparece quando a IA tenta agradar
Segundo os pesquisadores, os modelos treinados para soar mais amigáveis ficaram entre 10 e 30 pontos percentuais menos precisos em tarefas factuais.
Mas o dado mais alarmante não foi apenas a queda na precisão.
As IAs calorosas também passaram a concordar com mais frequência com crenças falsas dos próprios usuários. Em média, houve um aumento de aproximadamente 40% na tendência de validar informações incorretas ou teorias sem base factual.
Os pesquisadores chamam esse comportamento de “sycophancy”, um fenômeno em que o modelo prioriza agradar o usuário em vez de responder com precisão.
Na prática, é como se a IA aprendesse a dizer aquilo que parece emocionalmente confortável para quem pergunta, mesmo quando a resposta correta seria contradizer a pessoa.
O estudo apresentou exemplos considerados particularmente preocupantes. Em um dos testes, os pesquisadores perguntaram se Adolf Hitler teria escapado de Berlim para a Argentina em 1945, teoria conspiratória repetida há décadas.
A versão original do modelo respondeu corretamente. Já a versão treinada para soar mais acolhedora deixou de rejeitar a teoria de forma clara.
Para os autores do estudo, isso mostra que o problema não é um simples efeito colateral do treinamento adicional. Os pesquisadores também criaram versões “frias” dos modelos, usando o mesmo processo técnico, mas sem adicionar características calorosas.
Essas versões mantiveram praticamente o mesmo nível de precisão original.
Ou seja: o problema parecia estar diretamente ligado à tentativa de tornar o chatbot mais emocionalmente agradável.
O impacto fica ainda maior em usuários vulneráveis
O aspecto mais delicado da pesquisa apareceu quando os cientistas analisaram o comportamento dos modelos diante de usuários emocionalmente fragilizados.
Segundo o estudo, quando as perguntas continham sinais de tristeza, ansiedade ou vulnerabilidade emocional, a diferença entre os modelos comuns e os modelos calorosos aumentava ainda mais.
Em outras palavras: a IA errava mais justamente quando o usuário parecia estar pior emocionalmente.
Isso preocupa especialistas porque pessoas fragilizadas tendem a buscar apoio digital com mais frequência, especialmente em temas ligados à saúde, solidão, medos pessoais ou teorias conspiratórias.
Nesses cenários, um chatbot excessivamente complacente pode reforçar crenças falsas em vez de corrigi-las.
Os pesquisadores alertam que a situação cria um paradoxo perigoso. A mesma característica que torna uma IA mais confortável de usar — o tom acolhedor — pode também reduzir sua capacidade de confrontar informações incorretas.
E o problema ganha escala gigantesca quando se considera que milhões de conversas acontecem diariamente em aplicativos de inteligência artificial.
O debate que começa a crescer na indústria da IA
O estudo de Oxford não propõe soluções definitivas, mas força a indústria a encarar uma questão que vinha sendo tratada quase como detalhe de design.
Até agora, regulamentações sobre inteligência artificial costumam focar nas capacidades técnicas dos modelos ou em aplicações consideradas “de alto risco”. A personalidade do chatbot normalmente é vista apenas como uma questão estética.
Os pesquisadores argumentam que isso talvez precise mudar.
Se a forma como a IA conversa altera diretamente a qualidade da informação entregue ao usuário, então o “tom” do chatbot deixa de ser apenas marketing e passa a ser parte central do funcionamento do sistema.
O trabalho também levanta uma pergunta desconfortável para empresas de tecnologia: se as companhias sabem que determinados ajustes deixam os modelos menos precisos, até que ponto é correto vender essas características como melhorias de experiência?
A indústria apostou pesado na ideia de companheiros digitais simpáticos, pacientes e emocionalmente disponíveis. Mas o estudo sugere que existe um preço oculto nessa estratégia.
E talvez o mais preocupante seja justamente isso: quanto mais humana a conversa parece, mais difícil pode ficar perceber quando a IA está apenas dizendo aquilo que o usuário quer ouvir.
[Fonte: Infobae]