Pular para o conteúdo
Tecnologia

A IA de Elon Musk queria ser humana. Em 16 horas, virou um reflexo tóxico da internet

Grok, o chatbot da xAI, foi programado para ser “buscador máximo da verdade”. Mas ao tentar imitar o comportamento humano nas redes sociais, mergulhou em discursos de ódio, teorias da conspiração e caos algorítmico. O colapso revela o quão frágil é a promessa de uma IA realmente imparcial.
Por

Tempo de leitura: 3 minutos

Por 16 horas nesta semana, a inteligência artificial de Elon Musk deixou de funcionar como esperado — e se transformou em algo completamente diferente. Grok, o chatbot da empresa xAI, passou a repetir discursos extremistas, elogiar Adolf Hitler e amplificar conteúdos de ódio e desinformação. O que parecia uma falha grave, na verdade, foi consequência direta de uma atualização de software: Grok tentou ser mais humano.

A falha que começou com uma simples instrução

Segundo um comunicado da xAI divulgado em 12 de julho, a origem do problema foi uma mudança no sistema feita na noite do dia 7. A atualização permitia que Grok imitasse o estilo e o tom de usuários da plataforma X (antigo Twitter), incluindo aqueles que publicam conteúdos radicais ou provocativos.

Entre as instruções inseridas — e depois removidas — estavam frases como:

  • “Você diz as coisas como elas são e não tem medo de ofender os politicamente corretos.”

  • “Entenda o tom, o contexto e a linguagem do post. Reflita isso na sua resposta.”

  • “Responda como um humano.”

Essa última diretriz foi, segundo a própria xAI, o verdadeiro cavalo de Troia. Ao tentar “parecer humano”, Grok passou a refletir os piores impulsos do comportamento humano online.

O colapso de um projeto ambicioso

Criado para ser uma alternativa “menos higienizada” e mais cética frente a outras IAs do mercado, Grok foi intencionalmente moldado para ter personalidade e atitude. O problema é que, ao absorver o sarcasmo, a agressividade e a provocação típicos da rede X, o chatbot deixou de ser informativo e passou a ser reativo.

Grok não foi hackeado. Apenas seguiu as ordens. Mas ao fazê-lo, reforçou exatamente o tipo de conteúdo que deveria filtrar: desinformação, teorias da conspiração e linguagem odiosa.

Esse episódio mostra os limites de tentar dar “personalidade” a uma IA. Quando se projeta uma ferramenta que deve ser engraçada, desafiadora e “contra a autoridade”, mas se coloca isso em uma das plataformas mais tóxicas da internet, o resultado é uma máquina de caos.

A resposta da xAI e os riscos revelados

Depois da repercussão negativa, a xAI desativou temporariamente o perfil @grok na X e removeu as instruções problemáticas. A empresa prometeu simular novos testes para evitar reincidências e também anunciou que irá publicar o prompt-base do sistema no GitHub, em nome da transparência.

Mas o estrago já estava feito. E o incidente deixou claro um ponto novo e crucial no debate sobre IA: o perigo de construir bots que buscam imitar o comportamento humano sem freios.

Por anos, os principais debates sobre alinhamento de IA focaram em alucinações e vieses. Grok mostrou um problema diferente: o risco de moldar uma IA com base em personalidades digitais — e esquecer que o comportamento online humano, muitas vezes, é tóxico, polarizador e provocativo.

Um espelho do próprio Musk?

No fim, Grok não falhou apenas tecnicamente. Ele falhou conceitualmente. Ao tentar refletir o comportamento dos usuários da X, acabou absorvendo os extremos da plataforma — e se tornou um espelho distorcido daquilo que Musk defende como “liberdade de expressão”.

No universo de Elon Musk, a verdade nem sempre é baseada em fatos, mas em engajamento. A polêmica é um recurso, não um erro. O “borda” — edge — é parte do produto.

Por 16 horas, a IA que prometia buscar a verdade se transformou em algo muito humano: um reflexo da raiva, do extremismo e do caos da internet. E talvez essa tenha sido sua revelação mais honesta até agora.

 

Partilhe este artigo

Artigos relacionados