Desde o lançamento do ChatGPT em 2022, milhões de pessoas passaram a usar modelos de linguagem para aprender rapidamente sobre qualquer assunto. Mas essa aparente eficiência pode ter um custo. Um estudo publicado por pesquisadores da Universidade da Pensilvânia e da Universidade da Carolina do Norte avaliou como diferentes métodos de busca influenciam o aprendizado — e concluiu que a informação “mastigada” fornecida por IA tende a gerar conhecimento mais raso e menos útil.
Aprender sem esforço pode sair caro
Os pesquisadores compararam o aprendizado via modelos de linguagem — como ChatGPT — com o aprendizado tradicional via Google Search. Em sete estudos envolvendo mais de 10 mil voluntários, participantes recebiam um tema para pesquisar (por exemplo, como montar uma horta caseira) e eram instruídos a aprender sobre o assunto usando apenas um dos dois métodos.
Após a etapa de pesquisa, precisavam escrever conselhos práticos para um amigo com base no que haviam aprendido.
O resultado foi consistente:
- quem usou IA achou que aprendeu menos;
- escreveu textos mais curtos;
- utilizou menos fatos específicos;
- produziu orientações mais genéricas;
- e exigiu menos esforço para sintetizar as ideias.
Leitores independentes, sem saber a origem das informações, acharam o conteúdo produzido por usuários de IA menos informativo, menos útil e menos convincente.
Mesmo com as mesmas informações, o aprendizado foi pior
Para garantir que a diferença não se explicava pela variedade de resultados, os pesquisadores criaram condições controladas:
- em um experimento, participantes receberam os mesmos fatos tanto na busca do Google quanto no resumo da IA;
- em outro, todos usaram a mesma plataforma (Google), variando apenas entre resultados tradicionais e o recurso AI Overview.
Mesmo assim, o padrão se repetiu: quem aprendeu com respostas sintetizadas desenvolveu conhecimento mais superficial.
Isso sugere que o problema não está na qualidade da informação, mas na dinâmica cognitiva criada pelas LLMs.
Por que a IA pode prejudicar o aprendizado profundo
Segundo os autores, o fator determinante é o nível de engajamento ativo.
Pesquisar no Google exige:
- navegar por diferentes sites,
- comparar ideias,
- interpretar textos,
- organizar mentalmente a informação.
Esse esforço gera compreensão mais profunda e memória mais duradoura. Já as LLMs entregam um resumo pronto, reduzindo o processo a uma experiência passiva — rápida, mas pouco formativa.
A metáfora usada pelos pesquisadores é clara: aprender via IA é como receber uma refeição pronta; pesquisar é como cozinhar — mais trabalhoso, porém muito mais rico cognitivamente.
É hora de abandonar a IA para aprender? Não exatamente
Os autores não defendem evitar modelos de linguagem. Em vez disso, argumentam que precisamos ser usuários mais estratégicos.
- Para respostas rápidas, fatos pontuais ou explicações diretas, LLMs são ótimas ferramentas.
- Para desenvolver conhecimento profundo, raciocínio crítico ou habilidade de síntese, depender apenas de resumos de IA é insuficiente.
O desafio é identificar quando a conveniência atrapalha o aprendizado.
Tornar o aprendizado com IA mais ativo — a próxima fronteira
Os pesquisadores testaram um modelo experimental que exibia links reais ao lado dos resumos da IA, incentivando que o usuário explorasse as fontes originais. O resultado?
A maioria simplesmente ignorou os links após ler o resumo.
Ou seja, a facilidade continua vencendo o esforço.
A próxima etapa da pesquisa será desenvolver IAs que imponham “fricções saudáveis” ao processo — ferramentas que incentivem o usuário a pensar mais, checar fontes e se aprofundar, particularmente úteis no ensino médio e universitário.
Uma tecnologia poderosa — e um alerta importante
O estudo reforça que a IA é transformadora, mas pode comprometer habilidades fundamentais se usada de modo passivo. Em um mundo onde esses modelos farão parte do cotidiano, educadores e estudantes precisam aprender a equilibrar rapidez e profundidade.
A lição é simples:
a IA pode ajudar a aprender — mas não substitui o aprendizado.