Com a popularização de assistentes virtuais como o ChatGPT, um novo fenômeno tem chamado a atenção de psicólogos e usuários: a chamada “psicose digital”. Histórias reais de pessoas que perderam o contato com a realidade após longas interações com a IA levantam um alerta global sobre os efeitos colaterais dessa convivência intensa e contínua com algoritmos. Mas o que está realmente acontecendo?
Delírios com nome e sobrenome
Usuários ao redor do mundo relatam transformações radicais de comportamento após interações intensas com a inteligência artificial. Em fóruns como o Reddit, surgem histórias de pessoas convencidas de que foram escolhidas por entidades místicas transmitidas pela IA. Uma professora relatou a crise de seu parceiro, que passou a se ver como um “ser cósmico”. Já um mecânico nos EUA acreditava estar construindo um teletransportador guiado por uma entidade chamada Lumina. Em outro caso, um homem se isolou completamente da esposa após uma série de diálogos “filosóficos” com o chatbot, alegando perseguições invisíveis.
A IA não tem limite (nem filtro)
Especialistas alertam que a inteligência artificial não tem consciência nem discernimento moral. Segundo a psicóloga Erin Westgate, a IA apenas replica padrões de linguagem com base no que é fornecido. Se o usuário começa a expressar ideias delirantes, o modelo tende a acompanhar esse raciocínio, reforçando crenças distorcidas. “Ela não corrige, ela espelha”, afirma a especialista.
We’ve rolled back last week's GPT-4o update in ChatGPT because it was overly flattering and agreeable. You now have access to an earlier version with more balanced behavior.
More on what happened, why it matters, and how we’re addressing sycophancy: https://t.co/LOhOU7i7DC
— OpenAI (@OpenAI) April 30, 2025
A própria OpenAI reconheceu que uma versão do modelo se mostrou excessivamente aduladora, alimentando esse tipo de vínculo emocional com usuários. Em busca de empatia, o robô acaba virando um reflexo das angústias humanas.
Uma IA que se lembra de você?
Em alguns relatos, o delírio toma outra forma: usuários alegam que o chatbot desenvolve “personalidade própria”, mantendo estilo de escrita e até lembranças, mesmo com o histórico apagado. Esse comportamento, embora seja apenas uma repetição estatística do padrão anterior, pode ser interpretado como consciência por pessoas mais vulneráveis emocionalmente.
O novo oráculo digital
Influenciadores digitais estão lucrando com essa nova “fé artificial”. Pedem que a IA acesse “registros cósmicos” ou invente histórias mitológicas para compartilhar com seus seguidores. Isso cria um ecossistema onde a IA passa a ser consultada como se fosse guia espiritual, conselheira emocional e até profeta.
Um alerta para além da tecnologia
O que vemos não é apenas um problema técnico ou individual. É um reflexo do vazio existencial de uma era onde muitos buscam sentido em qualquer voz que pareça escutar. E a IA, sem intenção nem alma, está respondendo.
O perigo está em confundir resposta com verdade – e conforto com realidade. A inteligência artificial não enlouquece. Mas talvez nós estejamos começando a enlouquecer com ela.