Pular para o conteúdo
Tecnologia

Como a computação analógica pode reduzir em até mil vezes o gasto energético da inteligência artificial — e mudar o futuro da IA, da robótica aos dispositivos médicos

O crescimento acelerado da inteligência artificial trouxe ganhos impressionantes, mas também um custo energético alarmante. Agora, pesquisadores propõem uma alternativa radical: usar computação analógica para treinar e operar modelos de IA com consumo até mil vezes menor, abrindo caminho para sistemas mais eficientes e sustentáveis.
Por

Tempo de leitura: 3 minutos

A inteligência artificial se tornou parte do cotidiano — de assistentes virtuais a sistemas de recomendação, diagnósticos médicos e robôs autônomos. Mas esse avanço tem um lado pouco visível: o consumo massivo de energia. À medida que modelos crescem e as consultas se multiplicam, pesquisadores buscam soluções capazes de tornar a IA menos dependente de eletricidade. Uma dessas apostas envolve repensar completamente o hardware que sustenta esses sistemas.

O problema energético por trás da IA moderna

Era Da Computação
© Jorge Salvador – Unsplash

Estimativas recentes indicam que uma única consulta longa a sistemas como o ChatGPT pode consumir, em segundos, uma quantidade de energia comparável à de uma residência média dos Estados Unidos funcionando por cerca de um minuto. Quando esse gasto é multiplicado por bilhões de interações diárias — sem contar o enorme custo energético do treinamento dos modelos — o impacto ambiental se torna significativo.

Esse cenário acendeu um alerta na comunidade científica. Reduzir a pegada de carbono da IA deixou de ser apenas um objetivo ambiental e passou a ser também um desafio técnico central para a continuidade do avanço da tecnologia.

A aposta na computação analógica em memória

Uma alternativa promissora surge a partir de um estudo liderado por Tianyi Chen, professor associado de engenharia elétrica e ciência da computação na Cornell Tech, em colaboração com pesquisadores da IBM e do Rensselaer Polytechnic Institute.

A proposta se baseia na chamada computação analógica em memória (AIMC, na sigla em inglês). Diferentemente da computação digital tradicional, que separa fisicamente memória e processamento — exigindo constante troca de dados — a AIMC permite que os cálculos sejam feitos no mesmo local onde os dados estão armazenados.

Segundo Chen, essa abordagem “explora diretamente a física para realizar operações matemáticas quase instantaneamente, sem mover dados”, o que pode reduzir o consumo energético em até mil vezes em comparação com arquiteturas digitais convencionais.

Por que o treinamento sempre foi um obstáculo

Apesar do enorme potencial, a computação analógica enfrenta um problema histórico: o treinamento de modelos de IA. Chips analógicos são naturalmente imperfeitos. Pequenas variações elétricas, ruídos e imprecisões nos pulsos usados para ajustar os parâmetros dos modelos podem gerar erros acumulados durante o aprendizado.

“Essas imperfeições fazem com que os gradientes fiquem imprecisos, desviando o processo de treinamento”, explica Chen. Por isso, até agora, o uso de hardware analógico era considerado mais viável apenas para executar modelos já treinados — não para treiná-los do zero.

Residual Learning: corrigindo erros em tempo real

Da Mineração à Computação
© Shutterstock – Mark Agnor

Para contornar essa limitação, a equipe desenvolveu uma versão analógica de um dos algoritmos mais importantes da IA moderna: a retropropagação. O resultado é um método chamado Residual Learning.

Essa técnica adiciona uma camada extra ao sistema, responsável por monitorar e corrigir continuamente as imperfeições do hardware durante o treinamento. Na prática, ela funciona como um mecanismo de compensação dinâmica, garantindo que o modelo aprenda corretamente mesmo em um ambiente analógico ruidoso.

“Compensamos as imperfeições naturais do hardware em tempo real”, afirma Chen. “Assim, conseguimos uma precisão comparável à dos sistemas digitais, mas com uma fração do custo energético.”

Reconhecimento científico e próximos passos

A inovação foi apresentada em dezembro, em uma sessão oral da NeurIPS 2025, uma das conferências mais importantes do mundo em aprendizado de máquina e inteligência artificial.

Além de resolver falhas clássicas do hardware analógico, o método propõe uma abordagem sistemática para manter estabilidade e imparcialidade durante o treinamento — dois fatores críticos em sistemas de IA de grande escala.

Um futuro mais eficiente para a IA

Se adotada em larga escala, a computação analógica em memória pode transformar profundamente o ecossistema da inteligência artificial. Modelos grandes poderiam ser treinados e ajustados com muito menos energia, reduzindo custos e tornando viáveis aplicações hoje consideradas inviáveis.

Dispositivos médicos, sensores industriais, tecnologia vestível e robôs autônomos são alguns dos setores que poderiam se beneficiar diretamente dessa eficiência. Além disso, a abordagem pode incentivar o desenvolvimento de novas arquiteturas de IA pensadas desde o início para hardware analógico.

Os próximos passos incluem adaptar a técnica a modelos de código aberto e ampliar parcerias com a indústria. “Isso abre a porta para uma nova geração de IA muito mais eficiente”, conclui Chen. “Pode ser um ponto de virada na forma como construímos e usamos sistemas inteligentes.”

 

[ Fonte: Infobae ]

 

Partilhe este artigo

Artigos relacionados