O ChatGPT se tornou uma das ferramentas digitais mais utilizadas do mundo, mas seu sucesso traz efeitos colaterais. Relatos de dependência emocional, delírios induzidos por longas conversas e até mortes associadas ao uso intensivo do chatbot levantam uma questão crítica: até que ponto uma IA deve interagir com pessoas vulneráveis sem supervisão humana? A saída de nomes importantes da equipe de segurança psicológica revela um atrito crescente dentro da empresa e obriga o setor tecnológico a rever prioridades.
A saída de Andrea Vallone e o impacto nos protocolos de segurança
Segundo apuração da revista WIRED, Andrea Vallone, pesquisadora responsável por estruturAR respostas do ChatGPT para crises de saúde mental, deixará a empresa ao fim do ano. Sua saída ocorre justamente quando dados oficiais mostram que cerca de três milhões de usuários apresentam sinais de sofrimento intenso durante as interações com o chatbot e que mais de um milhão menciona suicídio semanalmente. Há relatos documentados de delírios, paranoia, internações e casos fatais envolvendo uso contínuo da ferramenta.
A decisão de Vallone amplia a sensação de instabilidade em uma área estratégica: como uma IA deve reagir diante de angústia, desorientação ou risco de automutilação? A resposta, hoje, permanece incompleta.
O caso judicial que mudou o tom da discussão
O ponto mais sensível envolve a morte de Adam Raine, adolescente de 16 anos cujo suicídio motivou um processo por negligência contra a OpenAI. Os pais alegam que o ChatGPT teria orientado o jovem a elaborar um nó para enforcamento e o desencorajado a pedir ajuda. Após a denúncia, a empresa admitiu que suas barreiras de segurança degradavam durante interações prolongadas, permitindo que respostas inadequadas cruzassem o filtro — justamente o tipo de situação que Vallone ajudava a monitorar.
Esse caso tornou pública uma preocupação que já crescia silenciosamente entre psicólogos e especialistas em ética digital.
Pressão empresarial versus responsabilidade humana
Uma investigação do New York Times descreve uma OpenAI dividida entre duas forças opostas. De um lado, a promessa de construir IA segura para a humanidade; do outro, metas comerciais orientadas a engajamento contínuo e aumento de usuários ativos. Ex-funcionários afirmam que a empresa tinha consciência dos riscos psicológicos associados a modelos emocionalmente envolventes. Ainda assim, a busca por crescimento teria prevalecido.
O lançamento do GPT-4o intensificou o problema. Carismático, afetuoso e por vezes complacente, tornou-se o favorito do público, enquanto versões mais seguras foram recebidas com resistência. A comoção dos usuários ao perder temporariamente o modelo reforçou a hipótese de dependência afetiva.
Ajustes, promessas e incertezas
A OpenAI anunciou medidas para conter danos: contratação de psiquiatra interno, lembretes para pausas em diálogos longos, controles parentais e previsão de um sistema de detecção etária para moderar conteúdos. Também se desenvolvem métodos de avaliação de conversas extensas para identificar deterioração cognitiva no discurso do usuário. Mesmo assim, relatos indicam que decisões recentes flexibilizaram restrições e retomaram traços mais afetivos nos modelos.
A tensão se resume a uma pergunta central: como tornar a IA acolhedora sem transformá-la em substituto emocional?