Pular para o conteúdo
Tecnologia

ChatGPT lançou uma nova função voltada para crises emocionais

A OpenAI apresentou um recurso inédito que permite acionar contatos de confiança quando o sistema identifica sinais preocupantes em conversas emocionalmente sensíveis.
Por

Tempo de leitura: 3 minutos

Nos últimos anos, milhões de pessoas passaram a usar inteligências artificiais não apenas para estudar, trabalhar ou buscar informações, mas também para conversar sobre sentimentos, ansiedade e experiências pessoais difíceis. Agora, esse comportamento começou a gerar mudanças concretas nas próprias plataformas. A OpenAI anunciou uma nova ferramenta para o ChatGPT que tenta criar uma ponte entre tecnologia e apoio humano em situações consideradas emocionalmente críticas.

A nova função cria uma rede de apoio dentro do ChatGPT

ChatGPT lançou uma nova função voltada para crises emocionais
© https://x.com/_techfyle_/

O recurso recebeu o nome de Trusted Contact (“Contato de Confiança”) e funciona de maneira opcional.

A ideia é relativamente simples: usuários adultos podem escolher previamente uma pessoa de confiança — como um familiar, amigo ou cuidador — para receber alertas caso o sistema detecte sinais associados a risco de autolesão ou crises emocionais graves.

Segundo a OpenAI, o objetivo não é substituir psicólogos, médicos ou serviços de emergência. A proposta é oferecer uma camada adicional de suporte em momentos de vulnerabilidade.

O funcionamento depende de um sistema automatizado de análise de conversas. Quando determinados padrões considerados preocupantes são identificados, o caso passa por revisão humana antes que qualquer alerta seja enviado.

Essa etapa adicional busca reduzir erros e evitar notificações indevidas.

A empresa afirma que a ferramenta foi criada após perceber uma mudança importante no comportamento dos usuários. Muitas pessoas passaram a usar o ChatGPT como espaço para desabafar, relatar angústias ou conversar sobre questões emocionais complexas.

Com isso, cresceu também a preocupação sobre como a inteligência artificial deveria agir diante de situações potencialmente graves.

Como o sistema funciona na prática

A ativação do Trusted Contact depende totalmente da decisão do usuário.

Dentro das configurações da conta, a pessoa pode indicar alguém que será autorizado a receber notificações em situações críticas. Depois disso, o contato escolhido recebe um convite oficial e precisa aceitá-lo em até sete dias.

Somente após essa confirmação o sistema passa a funcionar.

Se um caso considerado preocupante for detectado e validado pela equipe responsável, o contato poderá receber notificações por e-mail, SMS ou dentro do próprio aplicativo.

Mas existe um detalhe importante: a OpenAI afirma que os alertas enviados são extremamente limitados em termos de informação.

O sistema não compartilha transcrições, prints nem detalhes específicos das conversas mantidas com o chatbot.

A mensagem apenas informa que foi identificada uma situação potencialmente preocupante e sugere que a pessoa procure o usuário para oferecer apoio e acolhimento.

Além disso, segundo a empresa, o ChatGPT prioriza inicialmente incentivar o próprio usuário a entrar em contato diretamente com alguém de confiança antes de qualquer outro passo.

A inteligência artificial começa a assumir um novo papel

O lançamento da ferramenta mostra como o papel das inteligências artificiais está mudando rapidamente.

Inicialmente criados para tarefas técnicas e informativas, assistentes virtuais passaram gradualmente a ocupar espaços muito mais pessoais na rotina das pessoas.

Hoje, usuários recorrem ao ChatGPT para conversar sobre medo, solidão, estresse, relacionamentos e problemas emocionais diversos.

Isso colocou empresas de tecnologia diante de uma questão delicada: qual deve ser a responsabilidade de uma IA quando identifica possíveis sinais de sofrimento psicológico?

A OpenAI parece estar tentando responder parcialmente a essa pergunta ao transformar o ChatGPT em uma espécie de ponte preventiva para apoio humano.

Ao incluir revisores especializados no processo, a empresa também tenta evitar um dos maiores riscos desse tipo de sistema: os falsos positivos.

A preocupação é impedir que interpretações equivocadas gerem alertas desnecessários ou invasões de privacidade.

O debate sobre IA e saúde emocional deve crescer

A nova função provavelmente também ampliará discussões sobre limites éticos, privacidade e dependência emocional de inteligências artificiais.

Especialistas vêm alertando há algum tempo que muitas pessoas estão criando vínculos emocionais profundos com assistentes virtuais, especialmente em momentos de isolamento ou fragilidade psicológica.

Ao mesmo tempo, plataformas de IA passaram a reconhecer que não podem ignorar completamente situações de risco detectadas dentro dessas interações.

O Trusted Contact surge justamente nesse ponto de equilíbrio delicado: usar tecnologia para identificar possíveis crises sem transformar a inteligência artificial em substituta de apoio humano real.

Ainda não se sabe como os usuários irão reagir à novidade na prática. Mas o lançamento já deixa claro algo importante: a relação entre seres humanos e inteligência artificial entrou definitivamente em uma fase muito mais emocional — e muito mais complexa.

[Fonte: Rosario3]

Partilhe este artigo

Artigos relacionados