À medida que empresas de diferentes setores incorporam inteligência artificial em suas operações, uma dúvida central surge: apostar em modelos de código aberto ou fechado? Um novo estudo da Nous Research, publicado nesta quinta-feira, indica que a escolha não é tão simples quanto parece. Apesar de parecerem mais baratos no início, os modelos abertos podem acabar exigindo muito mais recursos computacionais, o que eleva o custo final.
Quando o barato sai caro
De acordo com os pesquisadores, os modelos de código aberto consomem significativamente mais recursos de computação do que os modelos proprietários de gigantes como Google e OpenAI. Em alguns casos, a diferença chega a ser dez vezes maior em perguntas de conhecimento simples.
O estudo analisou dezenas de modelos, medindo quantos tokens cada um utilizava para resolver e responder a questões de três categorias: conhecimento geral, problemas matemáticos e desafios de lógica.
“Modelos abertos usam entre 1,5 e 4 vezes mais tokens do que modelos fechados — e até 10 vezes em perguntas simples —, o que pode torná-los mais caros por consulta, apesar do custo menor por token”, escreveram os autores.
Por que a eficiência em tokens importa
Um token é a unidade mínima de texto que um modelo processa — pode ser uma palavra, parte dela ou até uma pontuação. Como cada resposta é gerada token por token, quanto mais tokens o modelo utiliza, mais tempo e poder computacional consome.
Além disso, serviços de IA geralmente cobram por quantidade de tokens gerados. Ou seja, mesmo que o custo por token de um modelo aberto seja menor, se ele usa muito mais tokens para chegar a uma resposta, a fatura pode ser maior.
O desempenho dos modelos fechados
Os resultados mostram que os modelos fechados foram os mais eficientes em praticamente todos os testes. Em perguntas de conhecimento simples, usaram até três vezes menos tokens que os modelos abertos. Em matemática e lógica, a diferença caiu, mas ainda ficou em torno de duas vezes.
“Modelos fechados, como os da OpenAI e o Grok-4, otimizam o uso de tokens para cortar custos, enquanto modelos abertos, como DeepSeek e Qwen, utilizam mais tokens, possivelmente para melhorar o raciocínio”, afirmam os autores.
Entre os modelos abertos, o llama-3.3-nemotron-super-49b-v1 se mostrou o mais eficiente, enquanto os da Magistral foram os menos econômicos.
O caso da OpenAI e os próximos passos
A pesquisa destacou também o desempenho da OpenAI. O o4-mini e o novo modelo aberto gpt-oss apresentaram notável eficiência em matemática, chegando perto dos resultados de sistemas fechados.
Segundo os autores, os modelos gpt-oss, com seu raciocínio mais conciso, podem servir de referência para que outros sistemas abertos melhorem sua eficiência em tokens.
Implicações para empresas
O estudo levanta um alerta importante para empresas que estão decidindo qual modelo de IA adotar. “Manter um modelo aberto pode ser mais barato na hospedagem, mas essa vantagem desaparece se ele exige muito mais tokens para resolver um mesmo problema”, escrevem os pesquisadores.
Além do custo direto, há ainda o impacto da latência: quanto mais tokens são gerados, maior o tempo de resposta — algo crítico para aplicações em tempo real.