Em 2021, Israel estreou uma nova arma digital apelidada de “The Gospel” — um sistema de inteligência artificial capaz de gerar listas de alvos em minutos, cruzando dados de satélites, redes sociais e vigilância em tempo real. Foi o que o exército israelense chamou de “a primeira guerra de IA da história”. Quatro anos depois, essa tecnologia se expandiu de forma vertiginosa — e Gaza se tornou o epicentro de uma revolução bélica conduzida por máquinas.
Gaza, o primeiro “laboratório humano” da IA militar
Nos últimos dois anos, o território palestino foi descrito por analistas e organismos internacionais como um “laboratório humano de IA”, onde algoritmos são testados em tempo real sobre populações civis. Desde 2023, mais de 67 mil palestinos morreram, segundo estimativas da ONU e da Reuters — incluindo 20 mil crianças. Uma comissão da ONU classificou recentemente as ações israelenses como genocídio.
Mesmo com um cessar-fogo parcial mediado por EUA e Qatar, os bombardeios continuaram, enquanto sistemas autônomos de vigilância e ataque seguem operando.
Algoritmos que decidem quem vive e quem morre
Além do “Gospel”, o arsenal israelense inclui os programas “Alchemist” (que detecta “movimentos suspeitos” em tempo real) e “Depth of Wisdom”, usado para mapear túneis subterrâneos. Mas o mais controverso é o sistema “Lavender”, descrito pela revista israelense +972 como uma IA que gera listas de alvos humanos com base em “pontuações de risco”.
A máquina calcula a probabilidade de um palestino ser militante. Se o número é alto, o nome entra automaticamente na lista de execuções. Segundo a investigação, oficiais israelenses apenas confirmavam se o alvo era homem — e o ataque seguia.
Outro programa, batizado de “Where’s Daddy?”, busca operativos em suas casas, resultando em ataques a residências inteiras. Um oficial de inteligência admitiu à +972: “O sistema foi feito para encontrá-los onde estiverem — mesmo com a família junto.”
A guerra dos dados e o papel das Big Techs
Grande parte da infraestrutura tecnológica usada em Gaza depende de empresas norte-americanas. Reportagens do Guardian e da Associated Press revelaram que a Microsoft hospedava dados de vigilância do exército israelense em sua plataforma Azure Cloud, incluindo ligações telefônicas interceptadas de civis palestinos. Após protestos internos, a empresa anunciou restrições — mas a maior parte dos contratos segue ativa.
A OpenAI, através da Microsoft, também forneceu modelos de linguagem avançados usados para traduzir comunicações interceptadas em árabe, embora auditorias internas apontem erros graves nas traduções, com impacto direto nas decisões militares.
O Google e a Amazon também estão implicados via o Project Nimbus, um contrato de US$ 1,2 bilhão assinado em 2021 para fornecer serviços de nuvem e IA ao exército israelense. Desde então, funcionários de ambas as empresas têm protestado contra o uso militar das tecnologias, mas as parcerias continuam.
Já a Palantir Technologies, conhecida por seus softwares de vigilância, mantém acordos diretos com as Forças de Defesa de Israel para fornecer o sistema AIP (Artificial Intelligence Platform), que analisa alvos e propõe planos de ataque. A empresa também tem contratos bilionários com o Departamento de Defesa dos EUA, reforçando o elo entre guerra e lucro.
A desinformação como arma
A guerra digital não se limita ao campo de batalha. Nas redes sociais, imagens e vídeos reais de Gaza são rotulados como falsos ou “gerados por IA”, num fenômeno que Israel chama de “Gazawood”.
Sem acesso de jornalistas estrangeiros e com dezenas de repórteres palestinos mortos em bombardeios, a dúvida sobre o que é real tornou-se parte da estratégia. Em um caso emblemático, um jovem de 22 anos, Saeed Ismail, que pedia doações para alimentar sua família, foi acusado de ser um personagem criado por IA — até que sua identidade foi confirmada por repórteres do Gizmodo.
Gaza hoje, o mundo amanhã
Para especialistas, Gaza é apenas o início. O uso de IA em guerras já está se expandindo para Ucrânia, onde o governo local convidou empresas de defesa a testar sistemas autônomos de combate. Nos EUA, o programa Thunderforge investe milhões em IA para identificação automática de alvos militares.
O presidente Trump prometeu colocar “a América na liderança do campo de batalha da IA”, e as empresas de tecnologia parecem dispostas a seguir o dinheiro.
“Os sistemas de IA não produzem fatos, e sim previsões”, alerta Heidy Khlaaf, cientista-chefe do AI Now Institute. “Quando o erro significa uma vida humana, a falha técnica vira crime de guerra.”
O dilema ético do século XXI
Gaza é hoje o retrato de um futuro próximo: guerras decididas por algoritmos, executadas por drones e legitimadas por dados imprecisos. A fronteira entre tecnologia e ética se dissolve diante do interesse econômico e militar.
As mesmas empresas que nos vendem assistentes virtuais e carros autônomos estão treinando máquinas para matar com eficiência matemática. O resultado é um campo de batalha sem responsabilidade humana — e um mundo cada vez mais confortável com a ideia de que a guerra também pode ser automatizada.