Buscar informação no Google mudou. Hoje, antes mesmo de clicar em qualquer link, muitos usuários se deparam com respostas prontas geradas por inteligência artificial. Os chamados AI Overviews, baseados no modelo Gemini, aparecem no topo dos resultados e prometem resumir rapidamente o que você precisa saber. O problema é que, apesar dos avanços, eles ainda erram — e não pouco.
90% de acerto parece muito… até você fazer as contas
Uma análise recente do jornal The New York Times tentou medir a precisão desses resumos. O resultado: cerca de 90% das respostas estavam corretas. À primeira vista, parece um bom desempenho.
Mas existe um detalhe importante. Considerando o volume gigantesco de buscas realizadas diariamente no Google, esse 10% de erro se transforma em dezenas de milhões de respostas incorretas todos os dias.
Ou seja, mesmo sendo “estatisticamente bom”, o impacto real dos erros é enorme.
A evolução do Gemini melhorou — mas não resolveu

Os testes começaram ainda quando a IA do Google utilizava versões anteriores do modelo Gemini. Na época, a taxa de acerto girava em torno de 85%. Com a evolução para versões mais recentes, como o Gemini 3, a precisão subiu para cerca de 91%.
Essa melhora mostra que a tecnologia está avançando. Ainda assim, a margem de erro continua relevante — especialmente quando se trata de informações factuais.
Quando a IA erra com confiança
Um dos pontos mais críticos desses sistemas é que eles não apenas erram — eles erram com segurança.
Nos testes, por exemplo, a IA foi questionada sobre quando a antiga casa de Bob Marley virou museu. Mesmo citando fontes, escolheu uma data incorreta. Em outro caso, afirmou que uma instituição real simplesmente não existia, mesmo tendo acesso à informação correta.
Esse comportamento é típico de modelos generativos: eles produzem respostas plausíveis, mas nem sempre verdadeiras.
Por que esses erros acontecem?
Parte do problema está na própria natureza da inteligência artificial generativa. Diferente de um banco de dados tradicional, esses sistemas não “sabem” algo com certeza — eles estimam a melhor resposta com base em padrões.
Além disso, a avaliação da IA ainda não é uma ciência exata. Cada empresa utiliza métodos diferentes para medir desempenho, e até os testes podem ser influenciados por outras ferramentas de IA, que também cometem erros.
Outro fator importante é que os AI Overviews não usam sempre o mesmo modelo. Para garantir velocidade, o Google alterna entre versões mais rápidas e mais leves do Gemini, que podem ser menos precisas do que modelos mais robustos.
Velocidade versus precisão
Esse equilíbrio entre rapidez e qualidade é central. Modelos mais avançados poderiam gerar respostas mais confiáveis, mas são mais lentos e caros de operar.
Por isso, na maioria das buscas, o sistema prioriza velocidade — o que aumenta a chance de erros. Para o usuário, isso significa receber respostas instantâneas, mas nem sempre corretas.
O posicionamento do Google

O Google argumenta que uma taxa de acerto próxima de 90% é positiva, especialmente considerando que muitos modelos de IA, sem acesso à internet, apresentam níveis de precisão entre 60% e 80%.
A empresa também afirma que os resultados do estudo não refletem totalmente a experiência dos usuários. Ainda assim, reconhece implicitamente o problema ao incluir um aviso padrão nos resultados:
“A IA pode cometer erros. Verifique as informações.”
O risco de confiar demais
O ponto mais sensível dessa discussão não é apenas o erro em si, mas o comportamento do usuário. Ao oferecer respostas prontas, a IA reduz a tendência de clicar nos links e verificar as fontes originais.
Isso pode levar à disseminação de informações incorretas em larga escala — especialmente quando as respostas parecem confiáveis.
Uma tecnologia útil, mas ainda imperfeita
Os AI Overviews representam uma mudança importante na forma como consumimos informação. Eles são rápidos, práticos e, na maioria das vezes, úteis.
Mas ainda estão longe de ser totalmente confiáveis.
No fim das contas, a lógica continua a mesma: quanto mais crítica for a informação, maior deve ser o cuidado. Porque, mesmo com toda a evolução da inteligência artificial, confiar cegamente em uma resposta automática ainda pode ser um risco — especialmente quando ela parece estar certa.
[ Fonte: Wired ]