A inteligência artificial se tornou parte do cotidiano — de assistentes virtuais a sistemas de recomendação, diagnósticos médicos e robôs autônomos. Mas esse avanço tem um lado pouco visível: o consumo massivo de energia. À medida que modelos crescem e as consultas se multiplicam, pesquisadores buscam soluções capazes de tornar a IA menos dependente de eletricidade. Uma dessas apostas envolve repensar completamente o hardware que sustenta esses sistemas.
O problema energético por trás da IA moderna

Estimativas recentes indicam que uma única consulta longa a sistemas como o ChatGPT pode consumir, em segundos, uma quantidade de energia comparável à de uma residência média dos Estados Unidos funcionando por cerca de um minuto. Quando esse gasto é multiplicado por bilhões de interações diárias — sem contar o enorme custo energético do treinamento dos modelos — o impacto ambiental se torna significativo.
Esse cenário acendeu um alerta na comunidade científica. Reduzir a pegada de carbono da IA deixou de ser apenas um objetivo ambiental e passou a ser também um desafio técnico central para a continuidade do avanço da tecnologia.
A aposta na computação analógica em memória
Uma alternativa promissora surge a partir de um estudo liderado por Tianyi Chen, professor associado de engenharia elétrica e ciência da computação na Cornell Tech, em colaboração com pesquisadores da IBM e do Rensselaer Polytechnic Institute.
A proposta se baseia na chamada computação analógica em memória (AIMC, na sigla em inglês). Diferentemente da computação digital tradicional, que separa fisicamente memória e processamento — exigindo constante troca de dados — a AIMC permite que os cálculos sejam feitos no mesmo local onde os dados estão armazenados.
Segundo Chen, essa abordagem “explora diretamente a física para realizar operações matemáticas quase instantaneamente, sem mover dados”, o que pode reduzir o consumo energético em até mil vezes em comparação com arquiteturas digitais convencionais.
Por que o treinamento sempre foi um obstáculo
Apesar do enorme potencial, a computação analógica enfrenta um problema histórico: o treinamento de modelos de IA. Chips analógicos são naturalmente imperfeitos. Pequenas variações elétricas, ruídos e imprecisões nos pulsos usados para ajustar os parâmetros dos modelos podem gerar erros acumulados durante o aprendizado.
“Essas imperfeições fazem com que os gradientes fiquem imprecisos, desviando o processo de treinamento”, explica Chen. Por isso, até agora, o uso de hardware analógico era considerado mais viável apenas para executar modelos já treinados — não para treiná-los do zero.
Residual Learning: corrigindo erros em tempo real

Para contornar essa limitação, a equipe desenvolveu uma versão analógica de um dos algoritmos mais importantes da IA moderna: a retropropagação. O resultado é um método chamado Residual Learning.
Essa técnica adiciona uma camada extra ao sistema, responsável por monitorar e corrigir continuamente as imperfeições do hardware durante o treinamento. Na prática, ela funciona como um mecanismo de compensação dinâmica, garantindo que o modelo aprenda corretamente mesmo em um ambiente analógico ruidoso.
“Compensamos as imperfeições naturais do hardware em tempo real”, afirma Chen. “Assim, conseguimos uma precisão comparável à dos sistemas digitais, mas com uma fração do custo energético.”
Reconhecimento científico e próximos passos
A inovação foi apresentada em dezembro, em uma sessão oral da NeurIPS 2025, uma das conferências mais importantes do mundo em aprendizado de máquina e inteligência artificial.
Além de resolver falhas clássicas do hardware analógico, o método propõe uma abordagem sistemática para manter estabilidade e imparcialidade durante o treinamento — dois fatores críticos em sistemas de IA de grande escala.
Um futuro mais eficiente para a IA
Se adotada em larga escala, a computação analógica em memória pode transformar profundamente o ecossistema da inteligência artificial. Modelos grandes poderiam ser treinados e ajustados com muito menos energia, reduzindo custos e tornando viáveis aplicações hoje consideradas inviáveis.
Dispositivos médicos, sensores industriais, tecnologia vestível e robôs autônomos são alguns dos setores que poderiam se beneficiar diretamente dessa eficiência. Além disso, a abordagem pode incentivar o desenvolvimento de novas arquiteturas de IA pensadas desde o início para hardware analógico.
Os próximos passos incluem adaptar a técnica a modelos de código aberto e ampliar parcerias com a indústria. “Isso abre a porta para uma nova geração de IA muito mais eficiente”, conclui Chen. “Pode ser um ponto de virada na forma como construímos e usamos sistemas inteligentes.”
[ Fonte: Infobae ]