Pular para o conteúdo
Mundo

Anthropic rejeita exigência do Pentágono sobre uso irrestrito de IA e coloca contrato de US$ 200 milhões em risco

Empresa responsável pelo modelo Claude recusou mudanças contratuais propostas pelo Departamento de Defesa dos EUA. A companhia afirma que não pode permitir uso para vigilância em massa ou armas totalmente autônomas, enquanto o Pentágono ameaça cancelar o acordo milionário.
Por

Tempo de leitura: 3 minutos

A relação entre empresas de inteligência artificial e governos entrou em uma nova fase de tensão. A Anthropic, desenvolvedora do modelo Claude, recusou uma proposta do Departamento de Defesa dos Estados Unidos para ampliar as permissões de uso da tecnologia no ambiente militar.

A disputa envolve um contrato de US$ 200 milhões e expõe um debate central da era da IA: até onde empresas privadas devem permitir que seus sistemas sejam utilizados em contextos militares sensíveis?

O que está em jogo

A Anthropic é responsável pelo modelo Claude, um dos primeiros sistemas de IA autorizados a operar em redes classificadas do governo norte-americano. O contrato com o Pentágono previa o uso da tecnologia dentro de determinados limites.

Segundo a empresa, as novas cláusulas propostas pelo Departamento de Defesa permitiriam flexibilizar — ou até ignorar — salvaguardas que impedem aplicações como vigilância em massa ou desenvolvimento de armas totalmente autônomas.

O secretário de Defesa dos EUA, Pete Hegseth, teria informado ao CEO da empresa, Dario Amodei, que, caso a Anthropic não autorizasse o uso do modelo “para todos os fins legais”, o contrato seria cancelado.

Além disso, a empresa poderia ser classificada como “risco para a cadeia de suprimentos” — um rótulo geralmente reservado a companhias associadas a adversários estrangeiros.

A posição da Anthropic

Anthropic
© Shutterstock

Em comunicado oficial, a Anthropic afirmou que o novo texto apresentado pelo Pentágono foi descrito como um compromisso, mas continha linguagem jurídica que permitiria contornar as salvaguardas estabelecidas.

Em uma longa publicação em seu blog, Amodei declarou que acredita na importância estratégica da IA para defender democracias. No entanto, ressaltou que há “um conjunto limitado de casos” em que o uso da tecnologia pode enfraquecer valores democráticos, em vez de protegê-los.

Entre esses casos estariam a vigilância em massa e sistemas de armas totalmente autônomas. Segundo o executivo, a tecnologia atual ainda não é suficientemente segura ou confiável para essas aplicações.

A frase que sintetizou a posição da empresa foi direta: “Não podemos atender à solicitação com consciência”.

A reação do Pentágono

A resposta de integrantes do Departamento de Defesa foi pública e contundente.

Emil Michael, subsecretário de Pesquisa e Engenharia, criticou Amodei nas redes sociais, acusando-o de querer controlar decisões militares e de colocar a segurança nacional em risco.

Ele afirmou que o Departamento de Defesa sempre cumprirá a lei, mas não se submeterá às “exigências de nenhuma empresa de tecnologia com fins lucrativos”.

A troca de declarações evidencia o atrito crescente entre o setor público e empresas de IA, especialmente quando se trata de autonomia decisória e limites éticos.

Funcionários defendem a empresa

Após a publicação de Amodei, funcionários da Anthropic passaram a manifestar apoio à liderança da companhia.

Trenton Bricken, integrante da equipe técnica de alinhamento da empresa, escreveu que ao longo dos últimos anos viu repetidamente a companhia defender seus valores, mesmo quando isso não era visível ao público.

Outro executivo, Gian Segato, gerente de ciência de dados, afirmou que a postura da empresa representa um momento decisivo na trajetória da inteligência artificial.

Um debate maior sobre IA e poder militar

O embate entre a Anthropic e o Pentágono reflete uma discussão mais ampla sobre o papel da inteligência artificial em contextos militares.

Embora governos argumentem que o uso da IA pode aumentar eficiência, precisão e capacidade defensiva, críticos alertam para riscos associados a sistemas autônomos letais e mecanismos de vigilância em larga escala.

A questão central não é apenas tecnológica, mas política e ética: quem define os limites? Empresas privadas? Governos? Ou uma combinação regulada de ambos?

Enquanto o contrato de US$ 200 milhões permanece sob ameaça, o episódio reforça que a corrida pela supremacia em IA não é apenas técnica. É também moral e estratégica.

E, ao que tudo indica, esse debate está apenas começando.

 

[ Fonte: CNN ]

 

Partilhe este artigo

Artigos relacionados