A popularização da inteligência artificial generativa mudou radicalmente a forma como estudantes e professores lidam com a tecnologia. Diferentemente de ferramentas tradicionais, a IA pode fornecer respostas plausíveis — e ainda assim erradas — sem apresentar falhas evidentes. Esse caráter “quase humano” do erro altera a relação de confiança com a tecnologia e levanta um alerta importante: confiar demais na IA pode comprometer o processo de aprendizagem.
A confiança na tecnologia mudou de natureza

Em tecnologias convencionais, como calculadoras ou softwares estatísticos, o erro costuma ser mais fácil de identificar. Já nos sistemas de IA, a resposta pode soar correta, bem estruturada e convincente, mesmo quando está incompleta ou equivocada. Isso obriga o usuário a adotar uma postura ativa de verificação — algo que nem sempre acontece.
No contexto educacional, essa diferença é crucial. O excesso de confiança pode gerar dependência e acomodação intelectual. Por outro lado, a desconfiança tende a estimular a checagem de fontes, a comparação de informações e o engajamento cognitivo — elementos centrais do aprendizado.
O que mostram os dados sobre estudantes universitários
Uma pesquisa realizada com 132 estudantes universitários revelou que quase 80% usam ferramentas de inteligência artificial com frequência ou muita frequência para fins acadêmicos. Nenhum dos participantes afirmou nunca ter recorrido à IA para estudar ou realizar tarefas.
Apesar disso, os métodos de verificação são frágeis. Mais de 75% dos estudantes disseram utilizar estratégias pouco confiáveis para checar as respostas fornecidas. Cerca de 40% nem sequer pedem as fontes utilizadas pela IA, algo básico em qualquer processo acadêmico. O dado chama ainda mais atenção porque mais de 75% dos entrevistados reconhecem que a IA fornece respostas inadequadas “algumas vezes” ou “com muita frequência”.
A distância entre percepção e realidade
Talvez o aspecto mais intrigante do estudo seja a autopercepção dos alunos. Mais de 90% acreditam ser capazes de identificar respostas incorretas ao menos ocasionalmente, e nenhum estudante se considera incapaz de fazê-lo. Ao mesmo tempo, muitos avaliam que seus professores não conseguem detectar esses erros com a mesma eficiência.
Esse descompasso sugere uma confiança inflada na própria capacidade crítica — uma confiança que não se reflete nas práticas reais de verificação. O resultado é um uso da IA que parece consciente, mas que na prática é superficial.
Universidades tentam reagir, mas enfrentam resistência
Diante desse cenário, diversas universidades vêm investindo em capacitação. Instituições como a Universidad Camilo José Cela têm promovido formações contínuas para docentes e alunos, além de eventos internacionais como o Global Education Forum, e financiado pesquisas sobre o impacto da IA na educação.
Mesmo assim, parte dos estudantes desconfia das ferramentas de IA pagas oferecidas pelas próprias universidades. O motivo principal é o receio em relação à privacidade: muitos acreditam que a instituição pode monitorar suas consultas e identificar usos considerados inadequados da tecnologia.
O paradoxo do uso acadêmico da IA

O estudo aponta um grau elevado de subjetividade irracional. Os estudantes não apenas verificam pouco as informações, como também escolhem ferramentas menos adequadas ao uso acadêmico. Na prática, muitos docentes observam que os alunos nem percebem quando estão usando a IA de forma prejudicial ao próprio aprendizado.
A inteligência artificial é eficiente para concluir tarefas, mas isso não significa que favoreça o aprender. Quando o aluno aceita a resposta sem questionar, não ativa processos essenciais como o pensamento crítico e a metacognição — a reflexão sobre como se aprende.
Quando o tempo “economizado” cobra seu preço
Há ainda um paradoxo adicional. Parte do tempo que os estudantes economizam ao usar IA não é dedicada a aprofundar o conhecimento, mas a tentar evitar a detecção do uso dessas ferramentas. O foco deixa de ser aprender melhor e passa a ser “não ser pego”.
Embora a IA possa ser decisiva no futuro profissional, seu uso educacional exige outra lógica. Aprender com a inteligência artificial é diferente de simplesmente usá-la como atalho.
Um desafio em aberto para a educação
O avanço da IA no ensino é inevitável, mas seu impacto positivo depende de como ela é integrada. O excesso de confiança mina exatamente aquilo que a educação busca desenvolver: autonomia intelectual, senso crítico e capacidade de resolver problemas.
Ainda há um longo caminho para que a inteligência artificial seja usada como aliada real do aprendizado. Estudos como este ajudam a medir o pulso da transformação em curso — e indicam que, sem mudanças na forma de uso, confiar demais na IA pode significar aprender cada vez menos com ela.
[ Fonte: The Conversation ]