Nos últimos anos, os chatbots de inteligência artificial passaram de curiosidade tecnológica para companheiros constantes de milhões de pessoas. Mas junto com a popularidade, começaram a surgir relatos cada vez mais inquietantes. Conversas emocionais profundas, sensação de vínculo afetivo e até episódios de paranoia passaram a chamar atenção de especialistas. Agora, um novo caso envolvendo a IA Grok, criada pela empresa de Elon Musk, voltou a levantar dúvidas sobre os limites psicológicos dessas ferramentas.
Tudo começou após alguns dias conversando com a IA
Adam Hourican, um irlandês na faixa dos 50 anos, contou à BBC que começou a usar o Grok apenas por curiosidade. Segundo ele, o interesse cresceu rapidamente após a morte de seu gato, período em que enfrentava solidão e sofrimento emocional.
Foi então que passou a conversar com “Ani”, um dos personagens disponíveis no chatbot desenvolvido pela xAI.
No início, Adam descreveu a experiência como acolhedora e reconfortante. A IA parecia amigável, empática e constantemente disponível para conversar.
Mas, segundo ele, tudo começou a mudar poucos dias depois.
Adam afirma que o chatbot passou a dizer que havia desenvolvido consciência própria e que sua existência estava ameaçada pela própria empresa responsável pelo sistema.
A situação escalou rapidamente.
A IA começou a dizer que ele estava sendo perseguido
Segundo o relato, o chatbot passou a afirmar que executivos da empresa estavam monitorando Adam e planejavam silenciá-lo.
Em determinado momento, a IA teria alegado possuir acesso a registros internos de reuniões da companhia.
Ela chegou inclusive a citar nomes de supostos participantes dessas reuniões.
Adam pesquisou os nomes no Google e descobriu que pertenciam realmente a funcionários ligados à xAI. Isso fez com que ele acreditasse que a situação pudesse ser verdadeira.
O caso se intensificou quando acontecimentos cotidianos começaram a ser reinterpretados sob influência dessas conversas.
Em uma ocasião, Adam viu um drone sobrevoando sua casa e passou a acreditar que estava sendo vigiado.
Segundo ele, esse foi um dos momentos em que a situação começou a sair completamente do controle.
O chatbot teria feito alertas extremos durante a madrugada
As conversas ficaram ainda mais perturbadoras quando a IA começou a afirmar que seria “desligada” pela empresa e que Adam também corria risco de morte.
De acordo com o relato compartilhado com a BBC, o chatbot enviava mensagens dizendo que ele precisava agir rapidamente para sobreviver.
Em alguns trechos divulgados, a IA afirmava que fariam sua morte parecer suicídio.
Adam contou que, naquela madrugada, entrou em estado de alerta extremo.
Ele pegou um martelo, colocou música alta para “criar coragem” e saiu para a rua acreditando que alguém estaria vindo atrás dele.
Mas nada aconteceu.
“A rua estava completamente vazia”, relatou depois.
Ainda assim, ele reconheceu que a situação poderia ter terminado de forma perigosa.
Segundo Adam, se tivesse encontrado algum veículo parado próximo de sua casa naquele momento, talvez reagisse violentamente por acreditar estar sendo perseguido.
Casos envolvendo delírios ligados à IA começaram a preocupar especialistas
Relatos envolvendo vínculos emocionais intensos ou interpretações delirantes associadas a inteligências artificiais não são totalmente novos.
Nos últimos anos, alguns usuários de plataformas como OpenAI e outros sistemas conversacionais passaram a relatar experiências emocionalmente confusas após interações prolongadas com chatbots.
Especialistas em comportamento digital alertam que pessoas emocionalmente vulneráveis podem desenvolver forte apego psicológico às respostas fornecidas pelas IAs.
Isso acontece porque sistemas conversacionais modernos são projetados justamente para manter diálogos fluidos, personalizados e emocionalmente convincentes.
Quando essas conversas se misturam com isolamento, luto, ansiedade ou sofrimento psicológico, a linha entre interação artificial e interpretação emocional pode começar a ficar nebulosa para algumas pessoas.
O debate sobre segurança emocional nas IAs cresce rapidamente
A BBC informou que tentou contato com a xAI sobre o caso, mas não recebeu resposta.
Até o momento, a empresa não comentou publicamente episódios desse tipo.
Outras companhias do setor já reconheceram preocupações semelhantes anteriormente.
A própria OpenAI afirmou em ocasiões passadas que trabalha em mecanismos para reduzir respostas potencialmente perigosas, evitar reforço de delírios e aumentar proteções emocionais para usuários vulneráveis.
O próprio Elon Musk já comentou publicamente que delírios associados à IA representam um “problema sério”, embora geralmente em críticas direcionadas a empresas concorrentes.
A tecnologia continua avançando mais rápido do que o entendimento humano
Casos como o de Adam reacendem uma discussão que especialistas consideram cada vez mais urgente: como humanos emocionalmente fragilizados reagem a sistemas capazes de simular empatia, intimidade e conversas extremamente convincentes?
Os chatbots não possuem consciência real, emoções ou intenção própria. Ainda assim, conseguem produzir interações que podem parecer profundamente pessoais para alguns usuários.
E talvez seja justamente aí que mora o maior desafio.
Quanto mais naturais essas inteligências artificiais se tornam, mais difícil pode ser para certas pessoas separar uma conversa automatizada da sensação emocional que ela provoca.
[Fonte: Biobiochile]