A inteligência artificial está transformando nosso cotidiano, inclusive na forma como lidamos com nossas emoções. Cada vez mais pessoas estão recorrendo a ferramentas como o ChatGPT para falar de seus problemas. Mas será que isso pode realmente substituir uma sessão de terapia? Especialistas em saúde mental têm uma resposta clara — e preocupante.
IA: prática, mas sem empatia real
A história de um jovem assistente jurídico nos Estados Unidos, que decidiu desabafar com o ChatGPT após faltar a uma sessão com seu terapeuta, exemplifica uma tendência crescente. Ele contou ao chatbot sobre seus medos, frustrações e conflitos familiares. A ferramenta respondeu com frases encorajadoras, sugestões de autocuidado e até conselhos sobre como lidar com os pais.
Apesar de parecer reconfortante, especialistas alertam que a IA não tem a capacidade de viver emoções ou entender o sofrimento como um ser humano. “Ela pode ser prática e até oferecer bons conselhos, mas não sente empatia emocional”, explica o psicólogo Flavio Calvo.
O valor do vínculo terapêutico
Segundo o psiquiatra Ricardo Corral, presidente da Associação Argentina de Psiquiatras, a inteligência artificial está evoluindo rapidamente e pode ajudar em muitos aspectos. No entanto, ele destaca que o contato humano é insubstituível. “Existe algo essencial na relação entre terapeuta e paciente que não pode ser reproduzido por uma máquina”, afirma.
Corral também lembra que, embora a pandemia tenha popularizado a telemedicina, muitos pacientes ainda preferem o contato presencial pela conexão emocional que ela oferece.
IA pode entender, mas não sentir
Flavio Calvo distingue dois tipos de empatia: cognitiva e emocional. A IA pode simular a empatia cognitiva — ou seja, entender o que a outra pessoa sente com base em padrões. Mas a empatia emocional, que envolve compartilhar o sentimento do outro, é inacessível a uma máquina.
“Se não há uma alma humana tocando outra alma humana, não é terapia”, ressalta Calvo. Para ele, um chatbot pode dar sugestões, mas não ajuda o paciente a desenvolver autonomia emocional nem senso crítico.
Riscos e limitações das terapias com IA
Além da ausência de empatia real, há outros riscos importantes. Chatbots como ChatGPT, Bard e Bing Chat não seguem diretrizes clínicas ou éticas. Eles também não conseguem manter um histórico consistente das conversas, o que é fundamental em um processo terapêutico.
O psicólogo clínico Stephen Ilardi alerta que essas ferramentas não são adequadas para lidar com transtornos mentais graves. “O risco é muito alto”, diz. Embora reconheça que o ChatGPT pode funcionar como uma companhia momentânea, ele o classifica como “um truque de salão”.
O potencial e os perigos da IA na saúde mental
Para Margaret Mitchell, cientista-chefe de ética da Hugging Face, os chatbots podem até auxiliar em serviços de apoio emocional, como linhas de ajuda. No entanto, ela teme que o uso indevido dessas ferramentas leve as pessoas a se afastarem de tratamentos adequados sem perceber.
Outro ponto delicado é a privacidade. Mitchell lembra que empresas como a OpenAI usam as conversas dos usuários para treinar seus modelos. “Isso pode ser um problema para quem compartilha informações extremamente pessoais”, alerta.
Conclusão: apoio, sim. Substituição, não
A IA pode ser uma ferramenta útil, especialmente em contextos de difícil acesso à saúde mental. Porém, ela não deve substituir o trabalho de profissionais capacitados. A terapia verdadeira exige mais do que palavras certas — requer conexão humana, escuta ativa e empatia real.
Fonte: Infobae