Nos bastidores da inteligência artificial, uma nova batalha bilionária está se formando. A OpenAI, conhecida por ter criado o ChatGPT, quer reduzir sua dependência da Nvidia e assumir mais controle sobre o futuro da sua infraestrutura de computação. Para isso, a empresa decidiu investir US$ 10 bilhões no desenvolvimento de seus próprios chips, em parceria com a Broadcom. A mudança promete redefinir não apenas os bastidores da OpenAI, mas todo o cenário da corrida global por poder computacional.
Parceria bilionária com a Broadcom
De acordo com o Financial Times e o Wall Street Journal, a OpenAI fechou um acordo estratégico com a Broadcom, gigante norte-americana de semicondutores, para criar chips customizados de inteligência artificial. O investimento de aproximadamente US$ 10 bilhões será usado para desenvolver processadores próprios, projetados para treinar e executar modelos cada vez mais avançados do ChatGPT e de outros produtos de IA.
A expectativa é que os primeiros chips entrem em operação a partir do próximo ano, consolidando uma transição que a OpenAI vinha planejando discretamente desde o início de 2024. A Broadcom, que havia anunciado um “acordo misterioso” na semana passada, agora tem o cliente revelado: trata-se de uma das parcerias mais ambiciosas do setor de tecnologia nos últimos anos.
Por que a OpenAI quer competir com a Nvidia
O domínio da Nvidia no mercado de GPUs para inteligência artificial é quase absoluto. Seus chips se tornaram o padrão para empresas como Amazon Web Services, Google, Microsoft e Oracle, que dependem da capacidade de processamento extremo para treinar modelos de IA de larga escala.
A pressão sobre a cadeia de suprimentos é enorme. Apenas a Oracle, por exemplo, anunciou recentemente planos para comprar mais de US$ 40 bilhões em chips da Nvidia para alimentar o Projeto Stargate, um esforço conjunto de várias empresas para expandir a infraestrutura global de computação.
Diante desse cenário, a OpenAI busca autonomia. Desenvolver chips próprios significa reduzir custos, acelerar pesquisas e diminuir a dependência de fornecedores externos, garantindo mais controle sobre o futuro dos seus produtos e serviços.
Uma corrida que envolve gigantes da tecnologia
A OpenAI não está sozinha nessa disputa. Google, Amazon e Microsoft também estão desenvolvendo chips próprios para inteligência artificial, numa tentativa de reduzir a pressão sobre a Nvidia e ganhar mais controle sobre suas arquiteturas de processamento.
Segundo o portal The Information, o Google já oferece seus TPUs (Tensor Processing Units) para data centers parceiros, enquanto a Amazon investe em chips de IA para sua plataforma AWS. A Microsoft, por sua vez, está apostando em processadores internos para integrar à sua infraestrutura de nuvem e aos serviços do Azure.
Essa tendência revela um movimento mais amplo: as maiores empresas de tecnologia do mundo não querem mais depender exclusivamente de terceiros. Cada uma busca criar seu próprio ecossistema, capaz de suportar o crescimento explosivo da IA nos próximos anos.
Nvidia ainda domina — e deve continuar lucrando
Mesmo com a movimentação dos concorrentes, a Nvidia não parece ameaçada no curto prazo. Na semana passada, a empresa anunciou um aumento de 56% em suas vendas no último trimestre, um sinal de que a demanda por suas GPUs segue extremamente aquecida.
Além disso, a flexibilização das tensões comerciais entre os EUA e a China, promovida pelo governo Trump, pode permitir que a Nvidia expanda suas vendas para novos mercados internacionais. Isso significa que, mesmo com a concorrência crescente, a empresa continuará no centro da revolução da IA.