Pular para o conteúdo
Tecnologia

OpenAI revela por que ChatGPT “alucina” e apresenta solução para reduzir erros

A OpenAI divulgou um estudo inédito explicando por que modelos como o ChatGPT “alucinam”, isto é, inventam informações com aparência de verdade. A pesquisa aponta falhas no processo de treinamento e propõe ajustes nos métodos de avaliação para que a IA aprenda a lidar com incertezas e evite respostas imprecisas.
Por

Tempo de leitura: 2 minutos

A OpenAI publicou um estudo detalhando os motivos por trás das chamadas “alucinações” dos modelos de linguagem, como o ChatGPT. O fenômeno ocorre quando a IA gera respostas aparentemente corretas, mas com dados imprecisos ou inventados. Além de impactar a confiança dos usuários, o problema preocupa empresas que dependem de sistemas baseados em inteligência artificial para tarefas críticas.

O que são as “alucinações” da IA

Por que um ganhador do Nobel acha que confiar em inteligência artificial pode ser um erro perigoso
© Pexels

As alucinações acontecem quando o modelo apresenta informações que parecem confiáveis, mas não têm respaldo nos dados usados durante o treinamento. Isso gera um risco significativo: usuários podem tomar decisões erradas acreditando que a resposta da IA é correta.

A OpenAI explica que o problema surge principalmente na etapa de pré-treinamento, quando o modelo aprende a prever a próxima palavra em grandes volumes de texto, sem etiquetas que indiquem se uma informação é verdadeira ou falsa. Esse processo pode criar padrões falsos que resultam em respostas incoerentes.

O novo estudo e suas descobertas

O relatório, intitulado “Por que os modelos de linguagem alucinam?”, foi publicado no blog oficial da OpenAI e revela que as falhas não ocorrem apenas em versões antigas, mas persistem até mesmo nos modelos mais recentes.

Segundo a pesquisa, um dos principais fatores é a forma como os modelos são avaliados: os testes atuais priorizam a precisão, incentivando o modelo a “chutar” respostas, em vez de admitir incerteza.

Para explicar, a OpenAI usa uma analogia com provas de múltipla escolha:

“Se você não sabe a resposta e tenta adivinhar, pode ter sorte e acertar. Deixar em branco garante zero. Da mesma forma, quando os modelos são avaliados apenas pela precisão, são estimulados a arriscar respostas em vez de dizer: ‘Não sei’.”

A solução proposta pela OpenAI

Uso Da Inteligência Artificial
© Justin Sullivan / Getty Images

Para reduzir os erros, a OpenAI propõe mudar os métodos de avaliação:

  • Penalizar respostas baseadas em conjeturas;

  • Criar métricas que incentivem o modelo a reconhecer incertezas;

  • Permitir que a IA se abstenha de responder quando não tiver dados confiáveis.

Segundo a empresa, esse ajuste pode tornar os sistemas mais seguros e transparentes, diminuindo a chance de que usuários recebam informações incorretas.

Limites da tecnologia

Apesar dos avanços, a OpenAI reconhece que não existe modelo 100% preciso. Isso ocorre porque algumas perguntas do mundo real são, por natureza, incontestáveis — independentemente do tamanho do modelo, da qualidade dos dados ou da capacidade de raciocínio da IA.

Com o novo sistema de avaliação, o objetivo não é eliminar totalmente as falhas, mas reduzir os riscos e aumentar a confiabilidade das respostas, criando modelos mais preparados para lidar com incertezas complexas.

 

[ Fonte: La Nación ]

 

Partilhe este artigo

Artigos relacionados