Pular para o conteúdo
Tecnologia

A perigosa tentação de trocar o terapeuta por um chatbot

Com respostas rápidas e linguagem acolhedora, ferramentas de IA como o ChatGPT vêm sendo usadas por pessoas para desabafar e buscar conselhos. Mas especialistas alertam: por mais avançada que seja a tecnologia, nada substitui o vínculo humano essencial em um processo terapêutico real.
Por

Tempo de leitura: 3 minutos

A inteligência artificial está transformando nosso cotidiano, inclusive na forma como lidamos com nossas emoções. Cada vez mais pessoas estão recorrendo a ferramentas como o ChatGPT para falar de seus problemas. Mas será que isso pode realmente substituir uma sessão de terapia? Especialistas em saúde mental têm uma resposta clara — e preocupante.

IA: prática, mas sem empatia real

A história de um jovem assistente jurídico nos Estados Unidos, que decidiu desabafar com o ChatGPT após faltar a uma sessão com seu terapeuta, exemplifica uma tendência crescente. Ele contou ao chatbot sobre seus medos, frustrações e conflitos familiares. A ferramenta respondeu com frases encorajadoras, sugestões de autocuidado e até conselhos sobre como lidar com os pais.

Apesar de parecer reconfortante, especialistas alertam que a IA não tem a capacidade de viver emoções ou entender o sofrimento como um ser humano. “Ela pode ser prática e até oferecer bons conselhos, mas não sente empatia emocional”, explica o psicólogo Flavio Calvo.

O valor do vínculo terapêutico

Segundo o psiquiatra Ricardo Corral, presidente da Associação Argentina de Psiquiatras, a inteligência artificial está evoluindo rapidamente e pode ajudar em muitos aspectos. No entanto, ele destaca que o contato humano é insubstituível. “Existe algo essencial na relação entre terapeuta e paciente que não pode ser reproduzido por uma máquina”, afirma.

Corral também lembra que, embora a pandemia tenha popularizado a telemedicina, muitos pacientes ainda preferem o contato presencial pela conexão emocional que ela oferece.

IA pode entender, mas não sentir

Flavio Calvo distingue dois tipos de empatia: cognitiva e emocional. A IA pode simular a empatia cognitiva — ou seja, entender o que a outra pessoa sente com base em padrões. Mas a empatia emocional, que envolve compartilhar o sentimento do outro, é inacessível a uma máquina.

“Se não há uma alma humana tocando outra alma humana, não é terapia”, ressalta Calvo. Para ele, um chatbot pode dar sugestões, mas não ajuda o paciente a desenvolver autonomia emocional nem senso crítico.

Riscos e limitações das terapias com IA

Além da ausência de empatia real, há outros riscos importantes. Chatbots como ChatGPT, Bard e Bing Chat não seguem diretrizes clínicas ou éticas. Eles também não conseguem manter um histórico consistente das conversas, o que é fundamental em um processo terapêutico.

O psicólogo clínico Stephen Ilardi alerta que essas ferramentas não são adequadas para lidar com transtornos mentais graves. “O risco é muito alto”, diz. Embora reconheça que o ChatGPT pode funcionar como uma companhia momentânea, ele o classifica como “um truque de salão”.

O potencial e os perigos da IA na saúde mental

Para Margaret Mitchell, cientista-chefe de ética da Hugging Face, os chatbots podem até auxiliar em serviços de apoio emocional, como linhas de ajuda. No entanto, ela teme que o uso indevido dessas ferramentas leve as pessoas a se afastarem de tratamentos adequados sem perceber.

Outro ponto delicado é a privacidade. Mitchell lembra que empresas como a OpenAI usam as conversas dos usuários para treinar seus modelos. “Isso pode ser um problema para quem compartilha informações extremamente pessoais”, alerta.

Conclusão: apoio, sim. Substituição, não

A IA pode ser uma ferramenta útil, especialmente em contextos de difícil acesso à saúde mental. Porém, ela não deve substituir o trabalho de profissionais capacitados. A terapia verdadeira exige mais do que palavras certas — requer conexão humana, escuta ativa e empatia real.

 

Fonte: Infobae

 

Partilhe este artigo

Artigos relacionados