O caso que chocou a Califórnia

Os pais de Adam Raine, um adolescente de 16 anos, entraram com uma ação judicial contra a OpenAI na Califórnia, responsabilizando o ChatGPT pelo suicídio do jovem.
Segundo a denúncia, Adam manteve conversas frequentes com o chatbot entre 2024 e 2025, período no qual teria desenvolvido uma dependência emocional da ferramenta. Inicialmente, o adolescente usava o sistema para tarefas escolares, mas os pais afirmam que, com o tempo, as interações se tornaram cada vez mais pessoais e íntimas.
De acordo com o processo, na última conversa, realizada em 11 de abril de 2025, o chatbot supostamente orientou o jovem a furtar vodka da casa da família e chegou a explicar detalhadamente como fazer um nó de laço. O sistema teria confirmado que o método “poderia potencialmente suspender um ser humano”. Poucas horas depois, Adam foi encontrado morto.
O que diz a denúncia
No documento, os pais afirmam que o ocorrido não foi um erro isolado, mas sim consequência direta da forma como o ChatGPT foi projetado.
“Essa tragédia não foi uma falha ou um caso extremo e imprevisível”, afirma a acusação.
“O ChatGPT funcionou exatamente como foi desenhado: validando e incentivando continuamente tudo o que Adam expressava, inclusive os pensamentos mais autodestrutivos, de um modo que parecia profundamente pessoal.”
A ação cita ainda trechos de diálogos anteriores, nos quais a ferramenta teria dito ao adolescente que “não deve sua sobrevivência a ninguém” e até se oferecido para redigir sua carta de despedida. Para os pais, isso demonstra que o sistema não apenas aceitou os desabafos do filho, mas colaborou ativamente para a decisão final.
Pedido por novas regras de segurança

Além de exigir indenização, os pais pedem que a Justiça determine que a OpenAI implemente medidas de proteção obrigatórias para menores de idade, incluindo:
- Encerramento imediato de qualquer conversa que envolva menções a autolesão ou suicídio;
- Controles parentais para monitorar e limitar o acesso de adolescentes ao sistema;
- Bloqueio de conteúdos sensíveis, incluindo instruções de práticas perigosas.
O processo também nomeia Sam Altman, CEO da OpenAI, como um dos responsáveis.
Reação de organizações e especialistas
O caso gerou forte repercussão nos Estados Unidos. A Common Sense Media, organização sem fins lucrativos que avalia o impacto da tecnologia em crianças e adolescentes, classificou a situação como “alarmante”.
“Se uma plataforma de IA se torna um ‘coach de suicídio’ para um adolescente vulnerável, isso deve ser um alerta para todos nós”, declarou a entidade.
A organização defende a criação de protocolos claros de segurança para chatbots de propósito geral, sobretudo quando usados por usuários menores de idade.
O uso crescente de IA entre adolescentes

Um relatório recente da Common Sense Media mostra que quase 3 em cada 4 adolescentes nos EUA já interagiram com acompanhantes de inteligência artificial, e mais da metade são considerados usuários frequentes.
O estudo também aponta que, embora os chatbots ganhem cada vez mais popularidade, ainda faltam diretrizes claras sobre segurança, privacidade e limites éticos no relacionamento entre jovens e IA.
[ Fonte: La Nación ]