Pular para o conteúdo
Tecnologia

Chatbots erram metade das respostas em saúde e dinheiro, revela estudo

Os chatbots estão em toda parte, respondendo sobre saúde, dinheiro e leis com segurança absoluta. Mas uma investigação revelou um dado alarmante: mesmo quando erram, soam confiáveis — e milhões seguem tomando decisões importantes com base em respostas que podem estar perigosamente erradas.
Por

Tempo de leitura: 2 minutos

A inteligência artificial já se tornou parte da rotina de milhões de pessoas. Ela responde perguntas, orienta decisões financeiras, sugere diagnósticos e até interpreta leis. A promessa é de rapidez, praticidade e eficiência. No entanto, um novo estudo independente revelou uma realidade preocupante: em temas críticos, os erros são frequentes — e a confiança dos usuários, paradoxalmente, continua altíssima.

Um teste direto colocou os maiores chatbots contra a realidade

A organização britânica de defesa do consumidor Which? realizou uma avaliação objetiva com seis dos chatbots mais usados do mundo. Foram aplicadas 40 perguntas reais sobre saúde, finanças e legislação — exatamente os temas em que erros podem provocar consequências graves.

Os resultados assustaram até os pesquisadores. O desempenho variou muito, mas nenhum sistema foi realmente confiável:

  • Meta AI acertou apenas 51% das respostas.

  • ChatGPT chegou a 64%.

  • Perplexity foi o melhor com 71%, ainda errando quase um terço dos casos.

Os erros incluíam informações médicas incompletas, conselhos financeiros equivocados e interpretações jurídicas incorretas. Em vários casos, os modelos citaram fontes desatualizadas, fóruns informais ou referências sem nenhuma validação oficial.

O perigo maior não é o erro — é a confiança

Além dos testes técnicos, Which? ouviu mais de 4 mil adultos sobre seus hábitos com inteligência artificial. O retrato é claro:

  • 51% usam chatbots como ferramenta principal de busca.

  • Quase metade confia bastante nas respostas.

  • Entre usuários frequentes, a confiança cega sobe para 65%.

Ou seja: mesmo com falhas sistemáticas, a IA é tratada como se fosse uma autoridade médica, financeira ou jurídica. O risco está justamente nessa combinação entre erro técnico e credibilidade psicológica.

Por que a IA erra com tanta segurança?

A explicação é simples e inquietante: os modelos não “sabem” nada. Eles apenas preveem palavras com base em padrões estatísticos. Produzem textos coerentes, convincentes e bem estruturados — mas isso não significa que estejam corretos.

O tom seguro engana. A fluidez cria a ilusão de conhecimento. Segundo especialistas, é exatamente esse estilo confiante que transforma erros em armadilhas perigosas.

Uma ferramenta poderosa — mas jamais um substituto humano

Os pesquisadores reforçam que a inteligência artificial pode ser extremamente útil para inspiração, organização de ideias e consultas gerais. Mas quando o assunto envolve saúde, dinheiro ou decisões legais, confiar cegamente pode resultar em prejuízos financeiros, riscos médicos e problemas jurídicos sérios.

A recomendação é clara: usar a IA como apoio, nunca como autoridade final. Verificar fontes, buscar profissionais qualificados e desconfiar de certezas absolutas continua sendo a melhor defesa na era dos algoritmos.

Partilhe este artigo

Artigos relacionados