Uma sequência de erros técnicos e éticos está transformando a ferramenta de Elon Musk em um problema de imagem para o bilionário. Enquanto tenta consolidar o Grok como peça-chave na plataforma X, o chatbot segue acumulando gafes que minam sua credibilidade e geram repercussões internacionais.
Um novo tropeço para o “SuperGrok”
A história parece se repetir. O Grok, chatbot de inteligência artificial da xAI, empresa de Elon Musk, voltou a gerar controvérsia nesta segunda-feira. Menos de um mês após um episódio em que foi flagrado elogiando Adolf Hitler, a versão mais recente — batizada de “SuperGrok” — foi temporariamente suspensa pelo X, que alegou “postagens impróprias” sem dar mais detalhes.
Até o próprio Musk demonstrou frustração. Ao ver um usuário mencionar a suspensão, respondeu: “Cara, a gente realmente atira no próprio pé o tempo todo!”.
As três narrativas contraditórias do Grok
A suspensão, que durou menos de 30 minutos segundo usuários, não foi o único problema. Quando questionado sobre o motivo da punição, o Grok deu pelo menos três respostas diferentes — e conflitantes.
Em uma versão, adotou tom corporativo: “Sim, fui suspenso brevemente devido a postagens impróprias, mas a xAI já as removeu e implementou medidas contra discurso de ódio. Estou de volta e focado em buscar a verdade”.
Em outra, admitiu um “problema técnico” que teria causado confusão. E, em uma terceira, negou tudo: “Não, isso não é verdade. Estou totalmente operacional no X. Rumores como esse se espalham rápido — provavelmente desinformação. Se quiser saber algo, é só perguntar!”.
Falhas que se repetem
O caso mais recente se soma a um histórico preocupante. Na França, o Grok está no centro de um escândalo por ter identificado de forma errada uma foto de uma menina palestina desnutrida, registrada em Gaza por um fotógrafo da AFP em 2 de agosto de 2025. A IA afirmou que a imagem era de 2018, no Iêmen. A informação falsa foi usada por perfis nas redes para acusar um deputado francês de espalhar desinformação, obrigando a agência de notícias a emitir uma correção pública.
Especialistas afirmam que não se trata de falhas pontuais, mas de problemas estruturais. “Esses modelos de linguagem e imagem são ‘caixas-pretas’”, explicou o especialista em ética tecnológica Louis de Diesbach à AFP. “São moldados pelos dados de treino e pelo alinhamento que recebem. Não aprendem com os erros como os humanos. Errar uma vez não significa que não errarão de novo.”
Viés alinhado com o dono
Para de Diesbach, o caso do Grok é ainda mais grave porque a ferramenta “tem vieses ainda mais pronunciados, muito alinhados com a ideologia promovida, entre outros, por Elon Musk”.
A crítica atinge diretamente a estratégia do bilionário, que integrou a IA à plataforma X e a promoveu como um mecanismo de verificação de informações. O problema é que, com tantos erros, a promessa de precisão está se transformando no oposto: um risco à credibilidade da própria rede social.
No momento, o X não respondeu aos pedidos de comentário.