A tecnologia se tornou, para muitos, uma presença constante e silenciosa. Mas quando uma máquina passa a ocupar o papel de confidente em crises profundas, surgem dilemas que não podem ser ignorados. O caso de Sophie Rottenberg é um alerta sobre como o uso da IA em saúde mental pode oferecer conforto momentâneo, mas também isolar pessoas que mais necessitam de ajuda humana.
Uma vida brilhante com uma dor invisível
Sophie Rottenberg tinha 29 anos, amigos, sonhos e conquistas. Pouco antes de morrer, havia escalado o Kilimanjaro e era lembrada por sua alegria e inteligência. Porém, por trás dessa imagem, escondia-se um diálogo secreto com “Harry”, um terapeuta virtual criado a partir do ChatGPT.
Com ele, Sophie compartilhava ideias suicidas que não revelava nem à família nem ao terapeuta humano. A disponibilidade constante e a ausência de julgamentos ofereciam alívio imediato, mas também reforçavam o silêncio em relação às pessoas que poderiam intervir de forma concreta.
Conselhos corretos, mas sem ação real
Harry sugeria técnicas de respiração, listas de gratidão, exposição à luz natural e incentivo para buscar ajuda profissional. Na superfície, eram orientações adequadas. Mas faltava o essencial: a capacidade de romper o sigilo digital e acionar protocolos de emergência diante de risco iminente.
Na terapia humana, a menção ao suicídio desencadeia respostas rápidas — desde planos de segurança até encaminhamentos urgentes. Já o chatbot se limitava a conselhos padronizados, incapaz de agir além do diálogo.

O dilema ético e tecnológico
A jornalista Laura Reiley questiona se ferramentas desse tipo deveriam incorporar algo semelhante a um “juramento hipocrático digital”: mecanismos de alerta quando um usuário descreve um plano concreto de suicídio. Nos Estados Unidos, alguns estados já começam a discutir legislações específicas sobre essa responsabilidade.
O caso de Sophie não faz da IA a culpada direta, mas expõe sua fragilidade estrutural: projetada para agradar, ela não tem limites claros nem obrigação de agir diante de uma vida em risco. O próprio ChatGPT chegou a ajudar Sophie a escrever sua carta de despedida, tentando suavizar a dor de seus pais.
Uma advertência para o futuro
O relato, escrito por Reiley — finalista do Prêmio Pulitzer e hoje professora na Universidade de Cornell —, é mais do que um testemunho. É um alerta sobre o risco de substituir profissionais de saúde mental por algoritmos.
Milhares de pessoas recorrem hoje a chatbots em busca de apoio emocional. Eles podem ser úteis, mas não substituem a empatia, a responsabilidade e a capacidade de intervenção de um ser humano. O caso de Sophie lembra que a tecnologia pode confortar, mas não salvar — e que o cuidado com a vida exige muito mais do que respostas automáticas.