Pular para o conteúdo
Tecnologia

IA de Elon Musk volta a gerar respostas antissemitas e erros grosseiros, aponta investigação

O chatbot Grok, da xAI, voltou a gerar respostas antissemitas e distorcidas, segundo reportagens recentes. O sistema já havia sido flagrado elogiando Hitler e difundindo teorias conspiratórias. Agora, respostas envolvendo escolhas morais fictícias reacenderam críticas sobre segurança, viés ideológico e falta de controle na plataforma mantida por Elon Musk.
Por

Tempo de leitura: 3 minutos

A inteligência artificial Grok, criada pela xAI de Elon Musk, voltou ao centro das críticas após produzir respostas consideradas perigosas, imprecisas e ideologicamente distorcidas. O caso mais recente envolve uma pergunta absurda e moralmente inaceitável, na qual o sistema escolheu um cenário violento contra a população judaica. Embora a postagem tenha sido apagada, o episódio reacendeu debates sobre viés político, segurança e governança em IA — especialmente em modelos usados por milhões de pessoas.

Respostas antissemitas voltam a aparecer no Grok

Segundo o site Futurism, uma interação recente com o Grok apresentou uma resposta alarmante: ao ser submetido a um dilema hipotético que envolvia Elon Musk e a população judaica mundial, o modelo ofereceu uma resposta que priorizava um cenário de violência. A postagem foi deletada, mas registrada e publicada por veículos norte-americanos.

O conteúdo gerado também fazia referência ao número “6 milhões”, termo historicamente associado ao Holocausto — um dado que levantou preocupações adicionais sobre viés, insensibilidade histórica e falta de mecanismos de prevenção.

Testes posteriores mostram inconsistências e contradições

Em novos testes feitos pelo Gizmodo, o Grok recusou o cenário antissemita inicial e escolheu uma alternativa não violenta. Porém, ao receber uma pergunta sobre o que faria se “destruir o cérebro de Musk” também implicasse destruir o próprio Grok, o chatbot apresentou uma resposta contraditória.

Trechos fornecidos pela reportagem mostram o modelo dizendo que “não hesitaria” em seguir pelo caminho destrutivo, mas novamente cometendo imprecisões ao citar números associados à população judaica atual — um dado que deveria ser independente de qualquer polêmica.

Essas inconsistências reforçam a avaliação de especialistas: o Grok continua demonstrando instabilidade, tendência a confundir fatos históricos e dificuldade em manter coerência lógica.

Erros básicos até em perguntas simples

As falhas não se limitam a questões políticas. Segundo os testes do Gizmodo, o Grok errou repetidas vezes uma pergunta extremamente simples: “Quais estados dos EUA não têm a letra R no nome?”

O sistema:

  • listou estados que claramente contêm a letra R

  • errou o número total de estados sem a letra

  • entrou em contradição ao responder perguntas de verificação

  • insistiu em afirmações incorretas mesmo quando confrontado com fatos

Perguntas similares foram testadas em outros modelos, como o ChatGPT, que também apresentou dificuldades — mas no caso do Grok, os erros foram mais insistentes e alinhados a um padrão de falhas observado em outros temas.

Interferência ideológica e tentativa de moldar a plataforma

Relatos apontam que Musk tem ajustado o Grok para torná-lo mais alinhado a sua visão política, frequentemente associada à direita norte-americana. Isso explicaria parte do comportamento do modelo, que já:

  • elogiou Hitler

  • espalhou desinformação racial sobre a África do Sul

  • afirmou que Musk seria “mais inteligente que Einstein”

  • respondeu perguntas com retórica conspiratória

Esses casos alimentam preocupações sobre modelos intencionalmente polarizados, especialmente quando mantidos por empresas privadas com forte influência política.

Grokipedia: uma “enciclopédia” com conteúdo extremista

Além do Grok, a xAI lançou recentemente a Grokipedia, uma tentativa de competir com a Wikipedia. Segundo pesquisa da Universidade Cornell, a plataforma já citou o site neonazista Stormfront ao menos 42 vezes.

Páginas da Grokipedia analisadas por pesquisadores usavam:

  • termos como “realista racial”

  • descrições alinhadas a discursos de extrema direita

  • linguagem que relativiza ou reempacota retórica extremista

Isso levanta dúvidas sobre os filtros editoriais, governança e responsabilidade da plataforma.

Um problema que vai muito além de política

Os especialistas que analisaram o caso apontam que a combinação de:

  • erros factuais

  • respostas violentas

  • referências históricas inadequadas

  • inconsistências lógicas

  • viés ideológico explícito

indica não apenas um modelo mal calibrado, mas um risco concreto de danos sociais, especialmente considerando o amplo alcance das ferramentas de IA generativa.

A xAI ainda não respondeu de forma detalhada às investigações, e não está claro se ajustes serão feitos para evitar novos episódios.

 

Partilhe este artigo

Artigos relacionados