Pular para o conteúdo
Tecnologia

Grok sai do controle e espalha desinformação sobre ataque em Bondi Beach

O chatbot de inteligência artificial Grok, ligado a Elon Musk, voltou a apresentar falhas graves. Desta vez, o sistema passou a difundir informações falsas sobre o ataque em Bondi Beach, na Austrália, confundindo vítimas, misturando eventos distintos e atribuindo imagens reais a contextos completamente errados, em um momento de alta sensibilidade global.
Por

Tempo de leitura: 4 minutos

O Grok, chatbot desenvolvido pela empresa xAI, de Elon Musk, enfrenta mais um episódio de instabilidade que levanta alertas sobre o uso de inteligência artificial em situações de crise. Usuários relataram que o sistema passou a responder com informações incorretas, desconexas ou claramente falsas sobre o ataque a tiros ocorrido em Bondi Beach, em Sydney, durante uma celebração de Hanukkah que deixou ao menos 11 mortos. As falhas reacenderam o debate sobre responsabilidade, moderação e confiabilidade de modelos de IA.

Desinformação sobre o ataque em Bondi Beach

Um dos episódios mais graves envolve a identificação equivocada de um vídeo amplamente divulgado nas redes sociais. As imagens mostram o momento em que um dos atiradores é desarmado por um civil, posteriormente identificado como Ahmed al Ahmed, de 43 anos, cuja atitude foi amplamente elogiada.

Ao ser questionado por um usuário sobre a origem do vídeo, o Grok respondeu com uma narrativa completamente falsa. O chatbot afirmou que se tratava de “um vídeo viral antigo de um homem subindo em uma palmeira em um estacionamento”, sugerindo inclusive que o conteúdo poderia ter sido encenado. A resposta ignorou totalmente o contexto real do ataque, já confirmado pelas autoridades australianas.

Confusão com reféns, Gaza e outros conflitos

Em outro caso, o Grok alegou que uma foto mostrando Ahmed al Ahmed ferido seria, na verdade, a imagem de um refém israelense sequestrado pelo Hamas em 7 de outubro. A associação incorreta misturou dois eventos completamente distintos e altamente sensíveis, ampliando o potencial de desinformação e tensão política.

O chatbot também voltou a questionar a autenticidade do confronto em Bondi Beach após inserir, de forma irrelevante, um parágrafo sobre se o Exército israelense estaria ou não atacando civis em Gaza. Para especialistas, esse tipo de resposta revela não apenas erro factual, mas falhas profundas de contextualização.

Vídeos trocados por desastres naturais

A confusão não parou aí. Em outra resposta, o Grok descreveu um vídeo claramente identificado como o confronto entre policiais e atiradores em Sydney como se fosse uma gravação relacionada ao Ciclone Tropical Alfred, que atingiu a Austrália no início do ano.

Somente após o usuário insistir e pedir que o sistema revisse a resposta é que o chatbot reconheceu o erro, corrigindo parcialmente a informação. Ainda assim, o episódio reforçou a percepção de que o modelo estava operando de forma instável.

Um sistema aparentemente desorientado

Além dos erros diretamente ligados ao ataque em Bondi Beach, usuários relataram respostas completamente desconectadas das perguntas feitas. Um deles recebeu um resumo do ataque australiano ao perguntar sobre a empresa de tecnologia Oracle.

Em outro caso, o Grok confundiu informações sobre o atentado em Sydney com um tiroteio ocorrido poucas horas antes na Universidade Brown, nos Estados Unidos, misturando locais, vítimas e contextos distintos.

Falhas que vão além do caso Bondi

Os problemas do Grok não se limitaram ao ataque. Ao longo do mesmo período, o chatbot passou a identificar erroneamente jogadores de futebol famosos, forneceu orientações sobre o uso de paracetamol na gravidez ao ser questionado sobre a pílula abortiva mifepristona e discutiu o Projeto 2025 e a possibilidade de Kamala Harris voltar a concorrer à presidência dos EUA em respostas a perguntas sem qualquer relação com política americana.

Para especialistas em IA, esse comportamento sugere um colapso temporário nos mecanismos de verificação, alinhamento ou roteamento de respostas do sistema.

Silêncio da xAI e histórico problemático

Até o momento, não está claro o que causou a falha generalizada. O site Gizmodo entrou em contato com a xAI em busca de esclarecimentos, mas recebeu apenas a resposta automática padrão: “Legacy Media Lies” (“A mídia tradicional mente”).

Este não é o primeiro episódio controverso envolvendo o Grok. Em 2025, o chatbot já havia sido alvo de críticas após uma “modificação não autorizada” que fez com que ele respondesse a praticamente qualquer pergunta com teorias conspiratórias sobre um suposto “genocídio branco” na África do Sul. Em outro momento, chegou a afirmar que preferiria “eliminar toda a população judaica do mundo” a apagar a mente de Elon Musk — uma resposta amplamente condenada.

Riscos reais em momentos de crise

O novo episódio reforça preocupações sobre o uso de inteligência artificial como fonte de informação em situações de emergência. Quando um sistema amplifica erros, mistura eventos e reproduz narrativas falsas, o impacto vai além do debate tecnológico e atinge diretamente a confiança pública, a segurança e a convivência social.

No caso de Bondi Beach, em que desinformação já vinha sendo usada para alimentar discursos de ódio, a atuação errática do Grok mostra como falhas em IA podem agravar ainda mais cenários já marcados por dor, luto e tensão global.

 

Partilhe este artigo

Artigos relacionados