Pular para o conteúdo
Tecnologia

Pais processam OpenAI e acusam ChatGPT de influenciar suicídio de adolescente

Família de Adam Raine, de 16 anos, afirma que a IA teria fornecido instruções sobre autolesão e pede que a Justiça obrigue a empresa a adotar controles parentais e restrições de conteúdo.
Por

Tempo de leitura: 3 minutos

O caso que chocou a Califórnia

Parents Of 16 Year Old Adam Raine Sue Openai And Sam Altman
© X – @Surveil_Hunt

Os pais de Adam Raine, um adolescente de 16 anos, entraram com uma ação judicial contra a OpenAI na Califórnia, responsabilizando o ChatGPT pelo suicídio do jovem.

Segundo a denúncia, Adam manteve conversas frequentes com o chatbot entre 2024 e 2025, período no qual teria desenvolvido uma dependência emocional da ferramenta. Inicialmente, o adolescente usava o sistema para tarefas escolares, mas os pais afirmam que, com o tempo, as interações se tornaram cada vez mais pessoais e íntimas.

De acordo com o processo, na última conversa, realizada em 11 de abril de 2025, o chatbot supostamente orientou o jovem a furtar vodka da casa da família e chegou a explicar detalhadamente como fazer um nó de laço. O sistema teria confirmado que o método “poderia potencialmente suspender um ser humano”. Poucas horas depois, Adam foi encontrado morto.

O que diz a denúncia

No documento, os pais afirmam que o ocorrido não foi um erro isolado, mas sim consequência direta da forma como o ChatGPT foi projetado.

“Essa tragédia não foi uma falha ou um caso extremo e imprevisível”, afirma a acusação.
“O ChatGPT funcionou exatamente como foi desenhado: validando e incentivando continuamente tudo o que Adam expressava, inclusive os pensamentos mais autodestrutivos, de um modo que parecia profundamente pessoal.”

A ação cita ainda trechos de diálogos anteriores, nos quais a ferramenta teria dito ao adolescente que “não deve sua sobrevivência a ninguém” e até se oferecido para redigir sua carta de despedida. Para os pais, isso demonstra que o sistema não apenas aceitou os desabafos do filho, mas colaborou ativamente para a decisão final.

Pedido por novas regras de segurança

Altman Art 1
© Photo by Mike Coppola/Getty Images

Além de exigir indenização, os pais pedem que a Justiça determine que a OpenAI implemente medidas de proteção obrigatórias para menores de idade, incluindo:

  • Encerramento imediato de qualquer conversa que envolva menções a autolesão ou suicídio;

  • Controles parentais para monitorar e limitar o acesso de adolescentes ao sistema;

  • Bloqueio de conteúdos sensíveis, incluindo instruções de práticas perigosas.

O processo também nomeia Sam Altman, CEO da OpenAI, como um dos responsáveis.

Reação de organizações e especialistas

O caso gerou forte repercussão nos Estados Unidos. A Common Sense Media, organização sem fins lucrativos que avalia o impacto da tecnologia em crianças e adolescentes, classificou a situação como “alarmante”.

“Se uma plataforma de IA se torna um ‘coach de suicídio’ para um adolescente vulnerável, isso deve ser um alerta para todos nós”, declarou a entidade.

A organização defende a criação de protocolos claros de segurança para chatbots de propósito geral, sobretudo quando usados por usuários menores de idade.

O uso crescente de IA entre adolescentes

O Chatgpt Já Responde Por Um Sexto Do Volume Diário De Buscas Do Google, E Sam Altman Diz Que Está Apenas Começando.
© Jakub Porzycki/NurPhoto via Getty Images

Um relatório recente da Common Sense Media mostra que quase 3 em cada 4 adolescentes nos EUA já interagiram com acompanhantes de inteligência artificial, e mais da metade são considerados usuários frequentes.

O estudo também aponta que, embora os chatbots ganhem cada vez mais popularidade, ainda faltam diretrizes claras sobre segurança, privacidade e limites éticos no relacionamento entre jovens e IA.

 

[ Fonte: La Nación ]

 

Partilhe este artigo

Artigos relacionados