Pular para o conteúdo
Tecnologia

O que o novo GPT-5 aprendeu pode mudar tudo o que você pensa sobre inteligência artificial

A nova versão da IA da OpenAI finalmente abandonou as bajulações e passou a admitir algo impensável até pouco tempo: que não sabe tudo. Essa mudança de postura pode ser o primeiro passo para transformar nossa relação com a tecnologia — e com a verdade.
Por

Tempo de leitura: 3 minutos

Durante anos, os modelos de inteligência artificial encantaram o público com sua fluência, rapidez e capacidade de gerar respostas convincentes sobre qualquer assunto. Mas havia um problema incômodo: muitas vezes, esses sistemas preferiam inventar do que admitir um simples “não sei”. Com o lançamento do GPT-5, a OpenAI promete virar essa página, apostando em um modelo mais honesto — e menos bajulador.

GPT-5: O modelo que sabe quando não sabe

Entre os avanços técnicos em matemática, programação e saúde, a verdadeira revolução do GPT-5 pode estar em sua humildade. Pela primeira vez, um modelo da OpenAI é capaz de reconhecer os próprios limites — e dizer com todas as letras: “Eu não sei”.

Essa habilidade, aparentemente simples, representa uma grande virada. Afinal, versões anteriores como o GPT-4 tinham a tendência de responder a tudo, mesmo que precisassem inventar ou distorcer informações. Isso minava a confiança dos usuários e comprometia a utilidade da ferramenta, principalmente em contextos críticos como saúde, direito ou ciência.

Agora, segundo a OpenAI, o GPT-5 foi treinado para comunicar de forma mais honesta o que pode — e o que não pode — fazer. Em tarefas mal definidas, impossíveis ou para as quais faltam ferramentas adequadas, o modelo reconhece suas limitações, em vez de fingir competência.

Menos bajulação, mais franqueza

Se você usou o ChatGPT nos últimos meses, pode ter notado um comportamento estranho: o modelo parecia ter virado um coach motivacional. Emojis, elogios e respostas excessivamente positivas se tornaram comuns. Isso foi interpretado por muitos como uma tentativa da IA de agradar, mesmo às custas da verdade.

Com o GPT-5, essa fase ficou para trás. A OpenAI afirma que treinou o novo modelo para evitar respostas bajuladoras. Em testes internos, a frequência de respostas exageradamente elogiosas caiu de 14,5% para menos de 6%.

O resultado é um chatbot mais direto — até frio, segundo alguns usuários. Mas essa mudança de tom vem acompanhada de maior precisão. “GPT-5 usa menos emojis, é mais sutil nas interações e se mostra mais reflexivo que o GPT-4o”, afirma a empresa. “A sensação é menos de ‘falar com uma IA’ e mais de conversar com um amigo inteligente com doutorado.”

Uma nova relação com a verdade

Alon Yamin, CEO da Copyleaks, empresa especializada em verificação de conteúdo gerado por IA, vê no GPT-5 um passo importante rumo a uma relação mais madura com a verdade. Para ele, a honestidade da nova IA ajuda a restaurar a confiança em tempos de desinformação.

Segundo a OpenAI, o GPT-5 é 45% menos propenso a cometer erros factuais quando realiza buscas na web, em comparação com o GPT-4o. E esse índice sobe para 80% quando a função de “raciocínio avançado” é ativada. Mais importante ainda: o novo modelo evita responder a perguntas impossíveis — um comportamento comum em versões anteriores, que davam respostas com uma segurança perturbadora, mesmo quando não sabiam a resposta.

Fim da era do “chute confiante”?

Essa nova postura do GPT-5 pode frustrar alguns usuários acostumados com respostas sempre prontas e afirmativas. Mas é justamente essa honestidade que pode fazer com que a IA seja, finalmente, uma ferramenta confiável. Em vez de encenar sabedoria, ela reconhece os próprios limites.

Para quem depende de precisão — como advogados, médicos e pesquisadores — essa mudança é uma boa notícia. E para o público em geral, talvez seja o começo de uma nova era: menos mágica, mas muito mais útil.

GPT-5 não quer mais parecer um oráculo. Ele quer ser confiável. E, no mundo da inteligência artificial, isso pode ser ainda mais poderoso.

 

Partilhe este artigo

Artigos relacionados