Pular para o conteúdo
Tecnologia

Grok 4: a nova IA de Elon Musk pode refletir seus próprios ideais? Especialistas soam o alarme

Elon Musk promete uma grande atualização em seu chatbot de IA, mas críticos temem que o bilionário esteja moldando o modelo para refletir suas próprias visões políticas. Com Grok integrado ao X, o impacto pode ser profundo — e levanta sérias questões sobre viés, confiança e democracia digital.
Por

Tempo de leitura: 3 minutos

A inteligência artificial está se tornando parte do cotidiano de bilhões de pessoas, e as decisões sobre como ela é treinada ganham cada vez mais peso. Nos próximos dias, Elon Musk lançará o Grok 4, nova versão do chatbot desenvolvido por sua empresa xAI. O anúncio foi feito após críticas do próprio Musk a uma resposta dada pelo modelo sobre violência política nos EUA — e a reação foi imediata.

 

A crítica de Musk e a promessa de “reeducar” o Grok

A cobrança que Elon Musk não esperava: investidores pedem mudanças radicais em sua atuação na Tesla
© https://x.com/ElonMuskNews47

Tudo começou quando o Grok respondeu, com base em dados do governo americano, que a violência política desde 2016 tem vindo mais da direita do que da esquerda. Musk rejeitou publicamente a resposta, classificando-a como “falsa” e alegando que o chatbot apenas “repetia a mídia tradicional”.

Em resposta, o empresário pediu aos usuários do X que enviassem “fatos politicamente incorretos, mas factualmente verdadeiros” para retreinar o modelo. Em apenas três dias, anunciou que o Grok 4 seria lançado após o feriado de 4 de julho, prometendo uma reformulação que “reescreveria todo o corpus do conhecimento humano”.

 

Especialistas veem risco de manipulação e viés

A iniciativa levantou preocupações entre especialistas em inteligência artificial e ética digital. David Evan Harris, pesquisador da UC Berkeley e ex-integrante da equipe de IA Responsável da Meta, alertou que esse episódio pode ser o início de uma disputa prolongada sobre se os criadores de IA devem moldar os modelos segundo suas crenças pessoais.

Outros lembram que o Grok já apresentou respostas enviesadas antes. Em maio, por exemplo, mencionou espontaneamente teorias sobre um suposto “genocídio branco” na África do Sul — tema recorrente nas declarações públicas de Musk, que nasceu no país.

A xAI alegou, na ocasião, que uma “modificação não autorizada” havia provocado o erro. No entanto, para muitos especialistas, a repetição de padrões levanta dúvidas sobre a real independência do modelo.

 

Treinar IA com viés: técnica e consequências

Retreinar completamente um modelo como o Grok exige tempo, dinheiro e milhares de horas de processamento. Segundo Nick Frosst, cofundador da Cohere, isso comprometeria a experiência do usuário e resultaria em um modelo mais enviesado.

Outra opção, mais comum, seria ajustar os chamados “pesos” do modelo ou inserir instruções que influenciem suas respostas. Isso permite direcionar a IA em determinados tópicos sem apagar sua base de conhecimento geral.

Dan Neely, CEO da Vermillio, afirma que a xAI pode usar esse método para reforçar áreas específicas, como política e história, segundo a visão de Musk. Para ele, o maior risco é criar um modelo “personalizado demais”, que serve mais para ecoar uma ideologia do que para atender o usuário de forma neutra e eficiente.

 

Grok, X e o risco à democracia

Apesar de não ter a mesma popularidade de modelos como o ChatGPT, o Grok tem uma vantagem única: está integrado diretamente ao X, uma das maiores redes sociais do mundo. E desde que Musk assumiu o controle da plataforma, antigas barreiras contra desinformação foram relaxadas.

Segundo os críticos, essa combinação — uma IA influenciada por visões pessoais e vinculada a uma rede com alcance global — representa uma ameaça à qualidade da informação e à confiança pública.

 

O futuro da IA será ideológico?

Embora Musk diga que busca “a verdade ao máximo”, especialistas lembram que toda IA carrega algum grau de viés, já que os dados disponíveis na internet e as escolhas feitas durante o treinamento refletem preferências humanas.

Nick Frosst alerta que modelos com visões ideológicas explícitas tendem a ser menos úteis para o público geral. “As pessoas querem que a IA resolva problemas, não que repita ideologias”, afirma.

No fim, pode ser que os usuários escolham assistentes de IA baseados em afinidades políticas. Mas até lá, a disputa por controle e verdade nas máquinas inteligentes promete ser longa — e cheia de implicações sociais e democráticas.

 

[ Fonte: CNN Brasil ]

 

Partilhe este artigo

Artigos relacionados