No mundo da inteligência artificial, decisões estratégicas costumam ser planejadas por meses — às vezes anos. Mas nem sempre isso acontece. Um acordo fechado rapidamente entre uma das empresas mais influentes do setor e o governo dos Estados Unidos acabou desencadeando críticas internas, pressão pública e questionamentos sobre ética tecnológica. Agora, a própria liderança da companhia admite que talvez tenha agido rápido demais.
O acordo que surgiu em meio a uma crise
A OpenAI anunciou que pretende revisar os termos de um contrato firmado recentemente com o Departamento de Guerra dos Estados Unidos. A decisão veio após o próprio CEO da empresa, Sam Altman, reconhecer que o acordo foi fechado de forma precipitada.
Em uma mensagem enviada aos funcionários, Altman afirmou que a negociação aconteceu em um momento delicado e que talvez não tenha havido tempo suficiente para avaliar todas as implicações. Segundo ele, a empresa buscava evitar que a situação se transformasse em um conflito maior, mas a velocidade da decisão acabou gerando um efeito oposto.
A negociação ocorreu logo depois que outra empresa de inteligência artificial, concorrente direta da OpenAI, foi retirada de um importante projeto tecnológico do governo americano. A ruptura aconteceu após essa empresa recusar permitir que seus sistemas fossem utilizados em programas de vigilância doméstica em larga escala.
A decisão provocou uma reação imediata na esfera política. O presidente dos Estados Unidos, Donald Trump, criticou publicamente a empresa que se recusou a colaborar e determinou que diversas agências federais deixassem de utilizar suas ferramentas.
Nesse cenário tenso, a OpenAI avançou rapidamente para ocupar o espaço deixado. O contrato foi anunciado como possuindo mais salvaguardas do que qualquer acordo anterior envolvendo o uso de inteligência artificial em projetos classificados.
Mas a repercussão mostrou que a história era mais complexa.
As críticas e as lacunas do contrato
Pouco depois da divulgação do acordo, especialistas e usuários começaram a apontar inconsistências no texto inicial do contrato.
A principal crítica dizia respeito à ausência de uma proibição explícita sobre o uso da tecnologia em programas de vigilância doméstica em massa. Essa lacuna alimentou uma onda de questionamentos nas redes sociais e dentro da própria comunidade tecnológica.
Diante da pressão, a OpenAI anunciou que pretende incluir essa restrição de forma clara na versão revisada do documento.
Além disso, a empresa também afirmou que pretende impedir que seus sistemas sejam utilizados por determinadas agências de inteligência ligadas ao Departamento de Defesa. Entre elas está a Agência de Segurança Nacional, conhecida internacionalmente pela sigla NSA.
A simples menção à agência reacendeu lembranças do escândalo revelado em 2013 por Edward Snowden. Na época, documentos vazados mostraram que a NSA coletava em larga escala dados de comunicações telefônicas e atividades na internet de cidadãos americanos.
Para muitos críticos, esse histórico torna ainda mais sensível qualquer colaboração entre empresas de tecnologia e órgãos de inteligência.
A pressão que veio de dentro das próprias empresas
A controvérsia não ficou restrita ao debate público. Dentro das próprias empresas de tecnologia, o tema gerou forte mobilização.
Cerca de 900 funcionários da OpenAI e do Google assinaram uma carta aberta pedindo que suas lideranças se recusassem a permitir que ferramentas de inteligência artificial fossem usadas em vigilância em massa ou em sistemas de armamento autônomo.
Essas armas são projetadas para tomar decisões de ataque sem intervenção humana direta — um cenário que preocupa especialistas em ética tecnológica e segurança internacional.
No documento, os signatários alertaram que o governo americano estaria tentando pressionar empresas individualmente, criando um ambiente de competição no qual cada companhia poderia sentir medo de perder contratos caso outra aceitasse colaborar.
Apesar das tensões, a OpenAI afirmou que mantém uma regra clara: sua tecnologia não pode ser utilizada para operar sistemas de armas autônomas.
Ainda assim, o episódio provocou repercussões no mercado.
Em plataformas como X e Reddit, usuários organizaram campanhas pedindo o cancelamento do ChatGPT. Ao mesmo tempo, o chatbot de uma empresa concorrente ganhou destaque nas lojas de aplicativos, chegando ao topo das listas de downloads em determinados momentos.
Questionamentos sobre ética e estratégia
Mesmo com a promessa de revisar o contrato, nem todos ficaram convencidos de que a situação foi resolvida.
Miles Brundage, ex-chefe de pesquisa em políticas da OpenAI, levantou dúvidas sobre como a empresa conseguiu fechar um acordo que outra companhia do setor considerou incompatível com seus princípios.
Segundo ele, muitos funcionários podem interpretar o episódio como um sinal de que a empresa acabou cedendo a pressões políticas enquanto tentava apresentar a decisão como algo responsável.
Ao mesmo tempo, Brundage destacou que a OpenAI é uma organização complexa e que muitas pessoas envolvidas no processo provavelmente acreditavam estar buscando um resultado equilibrado.
Enquanto isso, a empresa que inicialmente se recusou a colaborar com o governo americano enfrenta consequências diretas dessa decisão. Diversas agências federais já anunciaram a suspensão do uso de seus produtos.
A ordem do governo é que, gradualmente, todos os órgãos federais deixem de utilizar as ferramentas dessa companhia.
O episódio expõe um dilema cada vez mais presente no setor de tecnologia: até que ponto empresas de inteligência artificial devem colaborar com governos — especialmente quando estão em jogo questões de vigilância, segurança e poder.
E a resposta, ao que tudo indica, está longe de ser simples.
[Fonte: Época Negócios]