Um grupo significativo de funcionários da Google decidiu se posicionar publicamente contra a possibilidade de a empresa colaborar com o Departamento de Defesa dos Estados Unidos. Em uma carta direcionada ao CEO Sundar Pichai, mais de 600 trabalhadores — incluindo integrantes da divisão DeepMind — pediram que a companhia se recuse a fornecer ferramentas de inteligência artificial para projetos militares classificados.
Uma reação ao vazio deixado no setor
O movimento ocorre em um momento delicado para o setor. A empresa Anthropic, que vinha mantendo relações com o governo americano, entrou em conflito com o Departamento de Defesa dos Estados Unidos após divergências sobre os limites éticos no uso da IA.
Com essa ruptura parcial, abriu-se espaço para que outras empresas assumam contratos com o governo. No entanto, parte dos funcionários do Google quer justamente evitar que a empresa ocupe esse lugar.
Preocupações éticas no centro do debate
Na carta, os empregados destacam que trabalhar diretamente com IA lhes dá uma visão privilegiada sobre os riscos da tecnologia. Eles alertam para o potencial de concentração de poder, erros dos sistemas e uso indevido em larga escala.
Entre as principais preocupações estão aplicações como vigilância em massa e armas autônomas letais — cenários que, segundo os funcionários, ultrapassam limites éticos aceitáveis.
“Queremos ver a IA beneficiando a humanidade, não sendo usada de forma desumana ou prejudicial”, afirmaram no documento.
O pedido: recusar qualquer trabalho classificado
Os signatários defendem uma posição firme: o Google deveria recusar completamente contratos classificados com o governo.
Segundo eles, essa seria a única forma de garantir que a empresa não se associe a usos controversos da tecnologia. Caso contrário, há o risco de que tais aplicações ocorram sem o conhecimento ou controle dos próprios desenvolvedores.
Google e a aproximação com o governo
Até o momento, o Google não comentou oficialmente a carta. No entanto, reportagens indicam que a empresa estaria explorando acordos com o Pentágono, seguindo um caminho semelhante ao da OpenAI.
A OpenAI, por sua vez, já enfrentou críticas internas por decisões semelhantes, com funcionários também manifestando preocupação quanto ao uso militar de suas tecnologias.
Um dilema crescente na indústria de IA
O episódio evidencia um conflito cada vez mais comum no setor: o choque entre interesses comerciais e preocupações éticas.
Empresas de tecnologia veem nos contratos governamentais uma fonte relevante de receita e influência. Ao mesmo tempo, seus próprios funcionários — muitas vezes diretamente envolvidos no desenvolvimento dessas ferramentas — questionam os limites desse envolvimento.
Um debate que vai além do Google
A discussão levanta uma questão mais ampla: qual deve ser o papel das empresas de tecnologia em contextos militares?
Para muitos especialistas e trabalhadores da área, não se trata apenas de legalidade, mas de responsabilidade. Afinal, como destacam os próprios funcionários do Google, a inteligência artificial não é neutra — e suas aplicações podem ter impactos profundos na sociedade.
O desfecho desse impasse ainda é incerto. Mas uma coisa já está clara: dentro das grandes empresas de tecnologia, a resistência ao uso militar da IA está longe de ser um tema isolado — e tende a crescer nos próximos anos.