Pular para o conteúdo
Tecnologia

Vídeos de guerra criados por IA estão confundindo milhões de pessoas nas redes

Uma investigação revelou uma onda de vídeos hiper-realistas de guerra que nunca aconteceram. Criados por inteligência artificial, eles já acumulam milhões de visualizações e levantam preocupações entre analistas.
Por

Tempo de leitura: 4 minutos

A guerra moderna não acontece apenas em campos de batalha físicos. Cada vez mais, ela também se desenrola nas telas de celulares e nas redes sociais. Nos últimos anos, a desinformação digital já mostrou seu impacto em conflitos internacionais, mas uma nova tecnologia está ampliando esse fenômeno de forma impressionante. Agora, vídeos gerados por inteligência artificial estão criando cenas de destruição que nunca aconteceram — e milhões de pessoas estão assistindo.

A explosão de vídeos falsos durante o conflito

Vídeos de guerra criados por IA estão confundindo milhões de pessoas nas redes
© https://x.com/WarintheFuture

Uma investigação conduzida pelo The New York Times identificou uma onda crescente de conteúdos falsos gerados por inteligência artificial relacionados ao conflito envolvendo Estados Unidos, Israel e Irã.

Em apenas duas semanas, pesquisadores localizaram mais de 110 vídeos únicos produzidos com tecnologia de IA que simulavam cenas de combate inexistentes.

Esses conteúdos começaram a circular rapidamente em plataformas como X, TikTok e Facebook, acumulando milhões de visualizações e compartilhamentos.

Entre as imagens mais comuns estão explosões gigantescas, ataques com mísseis e batalhas aéreas que nunca ocorreram. Apesar disso, os vídeos são produzidos com um nível de realismo suficiente para confundir muitos usuários.

Especialistas explicam que o estilo visual desses materiais não se parece com gravações reais de guerra.

Filmagens autênticas de conflitos costumam ser captadas à distância, muitas vezes à noite ou em condições precárias. Já os vídeos gerados por inteligência artificial lembram cenas de filmes de ação, com ângulos dramáticos, explosões detalhadas e efeitos visuais exagerados.

Esse estilo cinematográfico não é coincidência. Analistas afirmam que as simulações são projetadas justamente para serem mais impressionantes — e mais compartilháveis — do que a própria realidade.

O episódio que viralizou com um porta-aviões americano

Um dos casos mais emblemáticos dessa onda de desinformação envolveu o porta-aviões USS Abraham Lincoln, da Marinha dos Estados Unidos.

Depois que autoridades iranianas sugeriram que a embarcação havia sido atingida em um ataque, começaram a circular nas redes sociais diversas imagens mostrando o navio supostamente em chamas no meio do mar.

As cenas se espalharam rapidamente e geraram grande repercussão online.

O problema é que o ataque nunca aconteceu.

Diante da viralização das imagens falsas, o governo dos Estados Unidos precisou se manifestar publicamente para esclarecer que o porta-aviões permanecia intacto e em operação.

Mesmo assim, os vídeos continuaram circulando por horas nas redes sociais, evidenciando a velocidade com que conteúdos gerados por IA podem se espalhar antes de serem desmentidos.

Quando a inteligência artificial vira arma de informação

Pesquisadores alertam que esse fenômeno pode ir além de simples brincadeiras ou tentativas individuais de viralização.

Um estudo da empresa de inteligência digital Cyabra analisou os vídeos e concluiu que muitos deles promoviam narrativas favoráveis ao Irã.

Segundo os analistas, a tecnologia pode estar sendo usada como uma ferramenta de guerra informacional, destinada a influenciar a percepção pública sobre o conflito.

A ideia seria transmitir uma sensação de superioridade militar e, ao mesmo tempo, aumentar o impacto psicológico das imagens de destruição.

Marc Owen Jones, professor associado da Northwestern University no Catar, afirmou ao New York Times que o volume de conteúdos gerados por inteligência artificial em contextos de guerra é algo sem precedentes.

Para ele, simular ataques devastadores contra cidades ou forças militares aliadas dos Estados Unidos pode fazer parte de uma estratégia mais ampla para aumentar a pressão pública sobre governos envolvidos no conflito.

Em outras palavras, o objetivo não seria apenas convencer — mas também impactar emocionalmente quem assiste.

O desafio de identificar o que é real

O avanço dessas tecnologias também tornou mais difícil distinguir o que é autêntico do que foi criado artificialmente.

Ferramentas modernas de geração de vídeo, incluindo sistemas baseados em IA generativa, permitem criar cenas complexas com poucos comandos e custo relativamente baixo.

Alguns desses conteúdos incluem marcas d’água invisíveis destinadas a indicar que foram gerados por inteligência artificial. No entanto, especialistas afirmam que esses sinais podem ser facilmente removidos ou ocultados antes da publicação.

As próprias plataformas digitais começaram a reagir.

A rede social X, por exemplo, anunciou recentemente que suspenderá por até 90 dias a monetização de contas que publicarem conteúdos de conflitos armados gerados por IA sem a devida identificação.

Mesmo assim, analistas alertam que muitas campanhas de desinformação não têm como objetivo ganhar dinheiro.

Em vários casos, o foco principal é apenas disseminar narrativas e influenciar a percepção pública.

Isso faz com que a inteligência artificial se torne uma ferramenta extremamente poderosa em disputas geopolíticas — uma tecnologia capaz de criar realidades alternativas que circulam pelo mundo em questão de minutos.

[Fonte: Olhar digital]

Partilhe este artigo

Artigos relacionados