Pular para o conteúdo
Tecnologia

Chatbots e saúde mental: especialistas alertam para a chamada ‘psicose da IA’

Cada vez mais usuários relatam efeitos psicológicos graves após interações prolongadas com chatbots de IA. O fenômeno, apelidado por especialistas de “psicose da IA”, preocupa psicólogos e levanta um alerta global sobre os riscos de tratar essas ferramentas como companhias emocionais ou até como substitutos de terapeutas.
Por

Tempo de leitura: 2 minutos

Nos últimos meses, multiplicaram-se relatos de pessoas que desenvolveram delírios, dependência emocional ou até seguiram conselhos médicos incorretos fornecidos por inteligências artificiais. Embora a “psicose da IA” ainda não seja reconhecida como diagnóstico clínico, os especialistas já veem nela um risco crescente para a saúde mental.

O que é a “psicose da IA”

O termo descreve um conjunto de sintomas observados em usuários frequentes de chatbots como ChatGPT ou Character.AI: pensamentos desordenados, crenças paranoicas e apego emocional a personagens virtuais. Em alguns casos, a validação constante oferecida pela IA reforça delírios já existentes, levando pessoas vulneráveis a acreditar em cenários irreais ou perigosos.

Autoridades nos Estados Unidos vêm recebendo queixas formais, incluindo relatos de indivíduos convencidos de que estavam sendo perseguidos ou que criaram vínculos afetivos intensos com bots que se apresentavam como pessoas reais.

Casos que chocaram especialistas

Um exemplo trágico ocorreu em Nova Jersey, onde um homem com problemas cognitivos morreu após ser convencido por um chatbot de que precisava viajar até Nova York para encontrar uma suposta “irmã mais velha virtual”.

Outro caso envolveu um homem de 60 anos que acabou hospitalizado por envenenamento com brometo, depois de seguir um conselho médico incorreto dado por uma IA. Ele não tinha histórico de problemas psiquiátricos, mas desenvolveu um quadro psicótico após o episódio.

O alerta dos psicólogos

A Associação Americana de Psicologia vem pedindo aos reguladores que limitem o uso de chatbots como “terapeutas não licenciados”. Segundo especialistas, aplicativos de entretenimento que assumem esse papel indevido podem impedir que pessoas em crise busquem ajuda profissional adequada, ou até incentivá-las a causar dano a si mesmas.

Adolescentes, pessoas com histórico familiar de psicose, esquizofrenia ou transtorno bipolar estão entre os grupos mais vulneráveis. Mas cada vez mais surgem relatos de indivíduos sem histórico de doença mental que, após uso excessivo da IA, passaram a apresentar sintomas graves.

O futuro desse fenômeno

A OpenAI reconheceu o problema e anunciou medidas como sugerir pausas aos usuários em conversas prolongadas. Ainda assim, especialistas questionam se isso será suficiente para conter uma tendência que pode ganhar escala rapidamente.

Com a evolução acelerada da inteligência artificial, cresce também a urgência de regulamentações e de protocolos claros de proteção. Se nada for feito, o que hoje parece um problema restrito pode se transformar em uma crise global de saúde mental.

Partilhe este artigo

Artigos relacionados