Um dos maiores desafios da inteligência artificial moderna é adquirir novas habilidades sem esquecer as antigas — algo natural para o cérebro humano, mas raro em sistemas computacionais. Buscando ultrapassar essa barreira, o Google Research apresentou o Nested Learning, um paradigma que imita a estrutura hierárquica das ondas cerebrais e permite consolidar informações em diferentes escalas temporais. O avanço pode redefinir como modelos aprendem, armazenam e atualizam conhecimentos ao longo do tempo.
A limitação central da IA: pouca memória e nenhum aprendizado contínuo

Apesar da evolução de grandes modelos de linguagem, algoritmos atuais permanecem essencialmente estáticos após o treinamento inicial. Sem mecanismos biológicos equivalentes à neuroplasticidade, esses sistemas não são capazes de consolidar novos conhecimentos de forma duradoura — funcionando, segundo o Google Research, como alguém com amnésia anterógrada, incapaz de formar memórias de longo prazo.
Hoje, modelos operam apenas com informações armazenadas nos parâmetros do pré-treinamento ou dentro da janela de contexto. Isso impede que se adaptem a novas tarefas e limita severamente sua eficiência cognitiva.
Como o cérebro inspira o Nested Learning
Na neurociência, a formação de memórias duradouras depende de dois processos complementares:
- Consolidação rápida (online): estabiliza lembranças logo após a experiência;
- Consolidação lenta (offline): reorganiza memórias durante o sono, quando ondas cerebrais de diferentes frequências interagem.
A ausência desses mecanismos nos modelos de IA impede a retenção contínua de informação. O Nested Learning tenta replicar exatamente essa arquitetura multinível.
O que é o Nested Learning e por que ele é diferente
O método, desenvolvido por Ali Behrouz, Meisam Razaviyayn, Peiling Zhong e Vahab Mirrokni, representa um modelo de IA como um sistema de problemas de otimização anidados, cada um operando em sua própria escala temporal e com frequência de atualização distinta.
Essa hierarquia permite:
- integrar informações novas sem apagar o conhecimento antigo;
- processar dados em diferentes níveis de abstração;
- ajustar partes do modelo em velocidades variadas, assim como ondas cerebrais fazem durante o aprendizado.
O Nested Learning rompe, portanto, com a divisão rígida entre memória curta e longa, oferecendo uma forma mais flexível de armazenar e consolidar conhecimento.
Ondas cerebrais como metáfora computacional

Cada componente do modelo pode ser atualizado com uma frequência própria, funcionando de modo análogo às ondas teta, alfa, beta e delta no cérebro humano, que coordenam fases diferentes da memória.
Os pesquisadores descrevem otimizadores e redes neurais como sistemas de memória associativa, capazes de compactar e estabilizar informação relevante ao longo do tempo. Isso cria uma estrutura na qual conhecimento recente e conhecimento consolidado coexistem de maneira mais fluida.
HOPE: o primeiro modelo que aplica o aprendizado anidado
Para testar o conceito, o Google Research desenvolveu o HOPE, uma arquitetura autorreferencial que combina Nested Learning com um mecanismo de memória contínua.
Nos testes apresentados na NeurIPS 2025, o HOPE superou arquiteturas tradicionais como Transformers, DeltaNet e Titans, exibindo:
- menor perplejidade em modelagem de linguagem.
- melhor desempenho em benchmarks de raciocínio.
- capacidade real de aprendizado contínuo sem esquecer conhecimentos anteriores.
Os resultados indicam um avanço significativo rumo a modelos que possam evoluir ao longo do tempo.
O que esse paradigma significa para o futuro da IA
O Nested Learning abre caminho para sistemas com comportamento mais próximo ao humano, capazes de:
- aprender de forma constante;
- consolidar memórias;
- adaptar-se a ambientes em mudança;
- generalizar conhecimentos com mais eficiência.
A proposta tem potencial para transformar áreas como processamento de linguagem natural, visão computacional, sistemas robóticos, agentes autônomos e modelos multimodais.
Em direção a uma IA mais “neuronal”
Segundo o Google Research, o Nested Learning demonstra que modelos compostos por múltiplos níveis podem operar em diferentes escalas temporais, tal como o cérebro humano faz. Isso pode levar à criação de arquiteturas mais expressivas, plásticas e adaptativas — e inaugurar uma nova geração de inteligência artificial mais capaz de aprender, lembrar e evoluir.
[ Fonte: Infobae ]