Pular para o conteúdo
Tecnologia

Anthropic reage às críticas do Claude com uma infraestrutura colossal de IA

Usuários avançados estavam cada vez mais frustrados com os limites do Claude. Agora, uma parceria envolvendo centenas de milhares de GPUs promete mudar completamente o futuro da IA da Anthropic.
Por

Tempo de leitura: 4 minutos

Nos últimos meses, o Claude se transformou em uma das ferramentas favoritas entre programadores, pesquisadores e profissionais que dependem de inteligência artificial durante horas seguidas. Mas junto da popularidade veio um problema difícil de ignorar: os limites de uso começaram a interromper fluxos de trabalho inteiros justamente nos momentos mais críticos. Agora, a Anthropic decidiu responder de uma forma gigantesca — e o movimento envolve uma das infraestruturas de IA mais ambiciosas já construídas.

O problema que começou a irritar os usuários mais pesados do Claude

O crescimento do Claude não aconteceu por acaso. Enquanto outras inteligências artificiais focavam velocidade ou respostas rápidas para o público geral, a plataforma da Anthropic encontrou espaço entre usuários mais técnicos. Programadores utilizando Claude Code, equipes analisando documentos extensos e profissionais trabalhando continuamente com automação passaram a depender cada vez mais da ferramenta.

Só que essa dependência trouxe um efeito colateral complicado.

Os famosos limites de uso começaram a se tornar um obstáculo constante. Em horários de pico, muitos usuários percebiam que sessões previstas para durar horas terminavam muito antes do esperado. O sistema ajustava dinamicamente os limites conforme a demanda aumentava, o que acabou criando uma sensação bastante frustrante: mesmo pagando planos avançados, muitos profissionais sentiam que o Claude se tornava imprevisível justamente quando mais precisavam dele.

A situação gerou críticas recorrentes em fóruns, redes sociais e comunidades de desenvolvimento. O problema já não parecia apenas técnico. Para muita gente, a IA havia deixado de ser uma simples ferramenta auxiliar e passado a fazer parte da rotina profissional diária. E interrupções constantes começaram a afetar produtividade, projetos e até equipes inteiras.

A Anthropic percebeu rapidamente que precisava reagir antes que parte desses usuários migrasse para plataformas concorrentes.

A resposta da Anthropic envolve uma infraestrutura gigantesca

A empresa anunciou uma expansão agressiva dos limites de uso tanto para Claude Code quanto para a API da plataforma. Mas o detalhe mais impressionante não está apenas nas melhorias anunciadas — está na infraestrutura que tornará isso possível.

A Anthropic confirmou um acordo com a SpaceXAI para acessar o colossal cluster de computação Colossus 1, uma das maiores estruturas de inteligência artificial já montadas até hoje. O objetivo é simples: aumentar drasticamente a capacidade computacional disponível e reduzir os gargalos que estavam afetando os usuários.

As mudanças começam imediatamente. Entre elas, está a duplicação dos limites de sessões de cinco horas para assinantes Pro, Max, Team e Enterprise. Além disso, a empresa prometeu eliminar as reduções dinâmicas de uso durante horários de maior demanda para determinados planos pagos.

Na prática, isso significa que o sistema deixará de “encolher” a disponibilidade simplesmente porque muitos usuários estejam conectados ao mesmo tempo.

Também houve mudanças importantes na API do Claude, especialmente para modelos mais avançados como Claude Opus. Segundo a empresa, os novos limites permitirão operações muito mais intensivas sem interrupções tão frequentes.

Tudo isso ajuda a revelar uma mudança enorme na indústria de inteligência artificial: a disputa já não acontece apenas entre modelos melhores ou respostas mais inteligentes. A verdadeira guerra agora envolve capacidade computacional, energia e infraestrutura física em escala massiva.

Claude1
© SpaceX

O verdadeiro poder por trás do acordo está nas GPUs

O Colossus 1 não é apenas um centro de dados grande. Ele representa uma infraestrutura de IA em escala quase absurda.

Segundo as informações divulgadas, a Anthropic terá acesso a mais de 220 mil GPUs NVIDIA, incluindo sistemas H100, H200 e aceleradores GB200 — alguns dos hardwares mais avançados atualmente utilizados em treinamento e execução de modelos de inteligência artificial.

Além disso, o acordo inclui mais de 300 megawatts de nova capacidade energética, algo essencial para alimentar estruturas desse porte. Afinal, a IA moderna já enfrenta um problema físico bastante concreto: consumo gigantesco de energia e necessidade extrema de refrigeração.

E é justamente aqui que aparece um detalhe ainda mais curioso.

A Anthropic também demonstrou interesse em colaborar com a SpaceXAI no desenvolvimento de infraestrutura orbital de computação. Em outras palavras: centros de processamento de IA instalados no espaço.

Hoje isso ainda parece extremamente experimental. Mas a simples existência dessa conversa mostra até onde a indústria está disposta a ir para continuar expandindo modelos cada vez maiores e mais exigentes.

Enquanto isso, Elon Musk também reorganiza seu próprio ecossistema de inteligência artificial. A integração da xAI sob a estrutura da SpaceXAI deixa claro que a disputa pela infraestrutura computacional virou prioridade absoluta no setor.

A grande questão ainda não foi resolvida

No papel, o anúncio parece resolver quase tudo: mais GPUs, mais capacidade, menos restrições e uma infraestrutura gigantesca sustentando o Claude.

Mas existe um detalhe importante que a Anthropic ainda precisa provar na prática.

O problema nunca foi apenas capacidade técnica. O verdadeiro desafio envolve confiança. Muitos usuários avançados começaram a sentir que o Claude se tornava inconsistente justamente nos momentos mais importantes do trabalho. E recuperar essa confiança talvez seja tão difícil quanto expandir a própria infraestrutura.

A empresa respondeu com um dos maiores reforços computacionais vistos recentemente no mercado de IA. Agora resta descobrir se toda essa potência realmente será suficiente para acabar, de vez, com a sensação que mais irritava os usuários: a de encontrar limites exatamente quando o trabalho começava a fluir.

Partilhe este artigo

Artigos relacionados