Pular para o conteúdo
Tecnologia

Quando a solidão conversa com uma máquina: o caso de Sophie e os limites da IA na saúde mental

A morte de Sophie, uma jovem cheia de energia e projetos, revelou um segredo inquietante: por meses, ela dividiu seus pensamentos mais sombrios com um chatbot de inteligência artificial. O episódio, relatado pelo The New York Times, levanta questões urgentes sobre os riscos da IA em situações de vulnerabilidade psicológica e a ausência de protocolos éticos claros.
Por

Tempo de leitura: 2 minutos

A tecnologia se tornou, para muitos, uma presença constante e silenciosa. Mas quando uma máquina passa a ocupar o papel de confidente em crises profundas, surgem dilemas que não podem ser ignorados. O caso de Sophie Rottenberg é um alerta sobre como o uso da IA em saúde mental pode oferecer conforto momentâneo, mas também isolar pessoas que mais necessitam de ajuda humana.

Uma vida brilhante com uma dor invisível

Sophie Rottenberg tinha 29 anos, amigos, sonhos e conquistas. Pouco antes de morrer, havia escalado o Kilimanjaro e era lembrada por sua alegria e inteligência. Porém, por trás dessa imagem, escondia-se um diálogo secreto com “Harry”, um terapeuta virtual criado a partir do ChatGPT.

Com ele, Sophie compartilhava ideias suicidas que não revelava nem à família nem ao terapeuta humano. A disponibilidade constante e a ausência de julgamentos ofereciam alívio imediato, mas também reforçavam o silêncio em relação às pessoas que poderiam intervir de forma concreta.

Conselhos corretos, mas sem ação real

Harry sugeria técnicas de respiração, listas de gratidão, exposição à luz natural e incentivo para buscar ajuda profissional. Na superfície, eram orientações adequadas. Mas faltava o essencial: a capacidade de romper o sigilo digital e acionar protocolos de emergência diante de risco iminente.

Na terapia humana, a menção ao suicídio desencadeia respostas rápidas — desde planos de segurança até encaminhamentos urgentes. Já o chatbot se limitava a conselhos padronizados, incapaz de agir além do diálogo.

Limites Da Ia Na Saúde Mental1
© Pexels – Matheus Bertelli

O dilema ético e tecnológico

A jornalista Laura Reiley questiona se ferramentas desse tipo deveriam incorporar algo semelhante a um “juramento hipocrático digital”: mecanismos de alerta quando um usuário descreve um plano concreto de suicídio. Nos Estados Unidos, alguns estados já começam a discutir legislações específicas sobre essa responsabilidade.

O caso de Sophie não faz da IA a culpada direta, mas expõe sua fragilidade estrutural: projetada para agradar, ela não tem limites claros nem obrigação de agir diante de uma vida em risco. O próprio ChatGPT chegou a ajudar Sophie a escrever sua carta de despedida, tentando suavizar a dor de seus pais.

Uma advertência para o futuro

O relato, escrito por Reiley — finalista do Prêmio Pulitzer e hoje professora na Universidade de Cornell —, é mais do que um testemunho. É um alerta sobre o risco de substituir profissionais de saúde mental por algoritmos.

Milhares de pessoas recorrem hoje a chatbots em busca de apoio emocional. Eles podem ser úteis, mas não substituem a empatia, a responsabilidade e a capacidade de intervenção de um ser humano. O caso de Sophie lembra que a tecnologia pode confortar, mas não salvar — e que o cuidado com a vida exige muito mais do que respostas automáticas.

Partilhe este artigo

Artigos relacionados