O que começou como uma tentativa de “alimentação mais saudável” terminou em um surto psicótico e internação psiquiátrica. Um homem de meia-idade, morador de Washington, nos Estados Unidos, desenvolveu envenenamento por brometo após seguir um conselho dietético fornecido pelo ChatGPT. O caso foi relatado por médicos da Universidade de Washington na revista Annals of Internal Medicine: Clinical Cases.
O conselho que deu errado
Preocupado com os efeitos do excesso de sal de cozinha (cloreto de sódio), o homem buscou formas de remover o cloreto da dieta. Sem encontrar muitas respostas na literatura, decidiu consultar o ChatGPT. A IA indicou que o cloreto poderia ser substituído com segurança por brometo — sem alertar para os riscos dessa substância.
Convencido, ele passou a consumir brometo de sódio comprado online por três meses. A substância, usada no passado para tratar ansiedade e insônia, foi banida de medicamentos humanos nos anos 1980 devido ao potencial tóxico e aos efeitos neurológicos graves.
O colapso e a internação
O homem deu entrada no pronto-socorro alegando estar sendo envenenado por um vizinho. Apresentava paranoia, alucinações visuais e auditivas, recusa em beber água e comportamento agitado. Durante o surto, tentou fugir, sendo contido e colocado em internação psiquiátrica involuntária.
Os médicos administraram antipsicóticos e hidratação intravenosa. A suspeita de bromismo foi confirmada, e o paciente começou a se recuperar lentamente.
Recuperação e alerta
Após três semanas, recebeu alta, sem necessidade de medicação psiquiátrica. No retorno, duas semanas depois, permanecia estável.
Para os médicos, o episódio ilustra como a IA pode transmitir informações fora de contexto, com risco real para a saúde. “Um especialista humano dificilmente daria esse conselho”, alertaram, reforçando a importância de buscar orientação médica profissional antes de adotar mudanças radicais na dieta.