Durante anos, a indústria apostou que bastaria escalar modelos, dados e infraestrutura para alcançar sistemas capazes de pensar e agir como pessoas. Mas um estudo recente indica que essa trajetória pode ter um teto bem definido. Segundo os autores, há um ponto em que a complexidade das tarefas supera aquilo que os próprios modelos conseguem processar, fazendo com que falhem ou entreguem respostas incorretas.
Uma prova matemática para um limite já suspeitado
O estudo foi assinado por Vishal Sikka e Varin Sikka, pai e filho, e ganhou atenção após ser destacado pela Wired. A conclusão central é direta: grandes modelos de linguagem, ou LLMs, são incapazes de executar tarefas computacionais e “agênticas” além de certo grau de complexidade.
Em termos simples, os pesquisadores mostram que alguns prompts exigem cálculos mais sofisticados do que o modelo consegue representar internamente. Quando isso acontece, o sistema entra em colapso operacional: ou não completa a tarefa, ou produz resultados errados.
A implicação vai além de um detalhe técnico. Ela coloca em xeque a ideia de agentes de IA totalmente autônomos — sistemas capazes de receber missões com várias etapas e executá-las do início ao fim sem supervisão humana — como caminho direto para a chamada inteligência artificial geral.
Isso não significa que a tecnologia não tenha utilidade ou que não vá melhorar. Mas sugere que existe um limite muito mais baixo do que o discurso “o céu é o limite” frequentemente adotado por grandes empresas do setor.
Por que isso é um problema para a IA autônoma
Boa parte do entusiasmo recente gira em torno de agentes capazes de planejar, decidir e agir sozinhos em ambientes digitais. A promessa é que eles cuidariam de processos complexos, desde programação até gestão de projetos, com mínima intervenção humana.
O problema é que esses agentes dependem dos próprios LLMs para raciocinar e coordenar ações. Se o modelo de base não consegue lidar com determinadas estruturas de complexidade, todo o sistema herda essa limitação.
Na prática, isso significa que há tarefas que simplesmente não podem ser resolvidas de forma confiável por esses agentes, independentemente de quantas camadas extras de automação sejam adicionadas. A barreira não é apenas de engenharia: é matemática.
Um coro crescente de ceticismo científico
Os Sikka não estão sozinhos nessa avaliação. Nos últimos anos, diversos pesquisadores vêm questionando as capacidades reais dos LLMs.
Em 2025, cientistas da Apple publicaram um trabalho indicando que esses modelos não realizam raciocínio genuíno, apenas reproduzem padrões com extrema sofisticação. Benjamin Riley, fundador da Cognitive Resonance, argumentou que, pela própria forma como funcionam, os LLMs jamais alcançarão aquilo que chamamos de inteligência.
Outros estudos testaram se sistemas baseados em LLMs conseguem produzir criatividade verdadeiramente nova — e os resultados foram, na melhor das hipóteses, modestos.
O diferencial do novo artigo é colocar matemática formal por trás dessa intuição. Em vez de apenas observar falhas empíricas, ele demonstra que certos tipos de tarefas exigem estruturas computacionais que os LLMs não conseguem sustentar.
O que isso diz sobre o futuro da inteligência artificial
Esse conjunto de evidências sugere que a IA atual pode continuar avançando em eficiência, velocidade e escala, mas dificilmente ultrapassará a inteligência humana apenas com mais dados e parâmetros.
Isso também joga água fria em previsões otimistas, como a recente afirmação de Elon Musk de que sistemas artificiais superariam a inteligência humana ainda este ano.
Nada disso invalida aplicações práticas de IA, que seguem crescendo em áreas como atendimento, programação assistida, análise de dados e automação. Mas reforça a ideia de que estamos lidando com ferramentas poderosas — não com mentes digitais.
Entre expectativas infladas e limites reais
O estudo dos Sikka se soma a um movimento mais amplo de revisão das expectativas em torno da IA. Em vez de uma escalada infinita rumo à autonomia total, o cenário que emerge é o de uma tecnologia com capacidades impressionantes, mas também com fronteiras claras.
Para pesquisadores, investidores e usuários, a mensagem é simples: grandes modelos de linguagem podem sim transformar setores inteiros, mas não parecem destinados a se tornar agentes universais capazes de resolver qualquer problema.
Talvez o próximo salto da inteligência artificial não venha apenas de mais dados ou mais GPUs, mas de abordagens radicalmente diferentes. Até lá, o “muro matemático” descrito pelo estudo funciona como um lembrete oportuno de que nem todo crescimento pode ser infinito — nem mesmo na era da IA.