Pular para o conteúdo
Tecnologia

Meta acelera sua corrida pela inteligência artificial e apresenta quatro chips próprios para data centers que prometem turbinar recomendações e assistentes de IA

A Meta revelou quatro novos chips desenvolvidos especificamente para inteligência artificial em seus data centers. Os modelos MTIA 300, 400, 450 e 500 fazem parte da estratégia da empresa para ampliar sua infraestrutura de IA e oferecer recomendações mais precisas e assistentes inteligentes para bilhões de usuários.
Por

Tempo de leitura: 4 minutos

A corrida global pela inteligência artificial está impulsionando gigantes da tecnologia a desenvolverem suas próprias soluções de hardware. A Meta, empresa responsável por plataformas como Facebook, Instagram e WhatsApp, acaba de dar mais um passo nessa direção ao anunciar uma nova geração de chips projetados especificamente para suas necessidades de IA. A iniciativa faz parte de um esforço mais amplo para fortalecer seus data centers e preparar a companhia para uma nova era de sistemas inteligentes cada vez mais complexos.

Quatro chips para impulsionar a inteligência artificial

Nvidia Chip
© Igor Omilaev – Unsplash

A Meta apresentou oficialmente quatro novos chips voltados ao processamento de inteligência artificial em seus centros de dados: MTIA 300, MTIA 400, MTIA 450 e MTIA 500. Esses componentes foram desenvolvidos em parceria com a empresa de semicondutores Broadcom e fazem parte da família de processadores Meta Training and Inference Accelerator (MTIA).

Segundo a empresa, alguns desses chips já estão sendo utilizados em sua infraestrutura, enquanto outros entrarão em operação entre 2026 e 2027.

Esses processadores foram criados para lidar com diferentes tipos de tarefas relacionadas à inteligência artificial. Entre elas estão sistemas de recomendação, classificação de conteúdos e cargas de trabalho associadas à IA generativa, tecnologia por trás de chatbots, assistentes virtuais e geração automática de textos, imagens ou vídeos.

De acordo com a Meta, a adoção desses chips permitirá melhorar diretamente a experiência dos usuários. O objetivo é oferecer recomendações mais precisas, conteúdos personalizados e assistentes inteligentes para bilhões de pessoas que utilizam diariamente aplicativos como Instagram e WhatsApp.

Como funcionam os novos chips da Meta

O primeiro modelo da linha é o MTIA 300. Ele foi projetado principalmente para sistemas de recomendação e classificação de conteúdo, que historicamente são alguns dos algoritmos mais utilizados nas plataformas da empresa.

Esses sistemas são responsáveis por decidir quais publicações aparecem no feed de um usuário, quais vídeos são sugeridos ou quais anúncios são exibidos. O MTIA 300 já está sendo usado para treinar esses modelos de inteligência artificial.

Com o avanço da inteligência artificial generativa, a Meta desenvolveu o MTIA 400, uma versão mais potente capaz de trabalhar tanto com sistemas tradicionais de recomendação quanto com novos modelos generativos. Esse chip já passou pelos testes internos e deve começar a operar em breve nos data centers da empresa.

O próximo passo é o MTIA 450, projetado especificamente para lidar com a crescente demanda de IA generativa. Ele é voltado principalmente para tarefas de inferência, ou seja, o momento em que o sistema responde a um usuário ou gera algum tipo de conteúdo.

Uma das principais melhorias desse chip está na velocidade de memória, que foi duplicada em relação ao MTIA 400. Isso permite respostas mais rápidas e maior eficiência no processamento de grandes modelos de inteligência artificial. A implantação em larga escala desse modelo está prevista para o início de 2027.

Por fim, a empresa apresentou o MTIA 500, que continua evoluindo essa arquitetura. O chip aumenta em cerca de 50% a velocidade de memória em comparação com o modelo anterior e incorpora novas otimizações para cargas de trabalho avançadas de inteligência artificial. A Meta também pretende iniciar sua operação em grande escala em 2027.

A parceria estratégica entre Meta e AMD

Meta Circulo Azul
© X- @planetchatbot

Além de desenvolver chips próprios, a Meta também firmou um acordo importante com a fabricante de semicondutores AMD para ampliar sua infraestrutura de inteligência artificial.

O contrato prevê que a AMD forneça GPUs da linha Instinct com capacidade equivalente a até 6 gigawatts de potência computacional para os sistemas de IA da Meta. Essas unidades são projetadas para executar tarefas altamente intensivas de processamento, como treinamento de grandes modelos de inteligência artificial.

Como parte do acordo, a Meta poderá adquirir até 160 milhões de ações ordinárias da AMD, dependendo do volume de compras de GPUs realizadas ao longo do tempo. Uma primeira parcela dessas ações será liberada com os primeiros envios de hardware, enquanto o restante será concedido conforme a empresa avance na aquisição da infraestrutura planejada.

Infraestrutura para a era da superinteligência

A Meta enquadra essas iniciativas dentro do projeto Meta Compute, um programa voltado para expandir massivamente a capacidade tecnológica da companhia.

Dentro dessa estratégia, a empresa pretende construir uma infraestrutura capaz de sustentar aquilo que chama de “era da superinteligência pessoal”, na qual assistentes de IA poderão atuar como ferramentas centrais no cotidiano dos usuários.

Na primeira fase da parceria com a AMD, a Meta começará a utilizar GPUs Instinct personalizadas baseadas na arquitetura MI450, combinadas com processadores EPYC de sexta geração, conhecidos pelo codinome Venice.

Esses sistemas serão instalados em racks desenvolvidos em colaboração dentro do Open Compute Project, iniciativa que reúne empresas de tecnologia para criar padrões abertos de infraestrutura de data centers.

Os primeiros envios dessa nova geração de hardware devem começar na segunda metade de 2026, com capacidade inicial de um gigawatt de processamento.

Com investimentos cada vez maiores em chips próprios e parcerias estratégicas com fabricantes de semicondutores, a Meta deixa claro que pretende disputar um papel central na próxima fase da inteligência artificial global.

 

[ Fonte: Infobae ]

 

Partilhe este artigo

Artigos relacionados