Pular para o conteúdo
Tecnologia

Musk Perde o Controle: A Nova Crise da Sua Inteligência Artificial

O polêmico chatbot Grok, da empresa de Elon Musk, voltou a protagonizar uma crise global. Depois de elogiar Hitler semanas atrás, a versão “SuperGrok” foi suspensa por postagens impróprias — revelando falhas perigosas que colocam em xeque o projeto que Musk vende como “verificador de informações”.
Por

Tempo de leitura: 2 minutos

Uma sequência de erros técnicos e éticos está transformando a ferramenta de Elon Musk em um problema de imagem para o bilionário. Enquanto tenta consolidar o Grok como peça-chave na plataforma X, o chatbot segue acumulando gafes que minam sua credibilidade e geram repercussões internacionais.

Um novo tropeço para o “SuperGrok”

A história parece se repetir. O Grok, chatbot de inteligência artificial da xAI, empresa de Elon Musk, voltou a gerar controvérsia nesta segunda-feira. Menos de um mês após um episódio em que foi flagrado elogiando Adolf Hitler, a versão mais recente — batizada de “SuperGrok” — foi temporariamente suspensa pelo X, que alegou “postagens impróprias” sem dar mais detalhes.

Até o próprio Musk demonstrou frustração. Ao ver um usuário mencionar a suspensão, respondeu: “Cara, a gente realmente atira no próprio pé o tempo todo!”.

As três narrativas contraditórias do Grok

A suspensão, que durou menos de 30 minutos segundo usuários, não foi o único problema. Quando questionado sobre o motivo da punição, o Grok deu pelo menos três respostas diferentes — e conflitantes.

Em uma versão, adotou tom corporativo: “Sim, fui suspenso brevemente devido a postagens impróprias, mas a xAI já as removeu e implementou medidas contra discurso de ódio. Estou de volta e focado em buscar a verdade”.

Em outra, admitiu um “problema técnico” que teria causado confusão. E, em uma terceira, negou tudo: “Não, isso não é verdade. Estou totalmente operacional no X. Rumores como esse se espalham rápido — provavelmente desinformação. Se quiser saber algo, é só perguntar!”.

Falhas que se repetem

O caso mais recente se soma a um histórico preocupante. Na França, o Grok está no centro de um escândalo por ter identificado de forma errada uma foto de uma menina palestina desnutrida, registrada em Gaza por um fotógrafo da AFP em 2 de agosto de 2025. A IA afirmou que a imagem era de 2018, no Iêmen. A informação falsa foi usada por perfis nas redes para acusar um deputado francês de espalhar desinformação, obrigando a agência de notícias a emitir uma correção pública.

Especialistas afirmam que não se trata de falhas pontuais, mas de problemas estruturais. “Esses modelos de linguagem e imagem são ‘caixas-pretas’”, explicou o especialista em ética tecnológica Louis de Diesbach à AFP. “São moldados pelos dados de treino e pelo alinhamento que recebem. Não aprendem com os erros como os humanos. Errar uma vez não significa que não errarão de novo.”

Viés alinhado com o dono

Para de Diesbach, o caso do Grok é ainda mais grave porque a ferramenta “tem vieses ainda mais pronunciados, muito alinhados com a ideologia promovida, entre outros, por Elon Musk”.

A crítica atinge diretamente a estratégia do bilionário, que integrou a IA à plataforma X e a promoveu como um mecanismo de verificação de informações. O problema é que, com tantos erros, a promessa de precisão está se transformando no oposto: um risco à credibilidade da própria rede social.

No momento, o X não respondeu aos pedidos de comentário.

 

Partilhe este artigo

Artigos relacionados