Pular para o conteúdo
Tecnologia

O Experimento em Que Só Havia Bots — e Eles Acabaram Entrando em Guerra

Pesquisadores criaram uma rede social inteiramente composta por perfis de inteligência artificial. Sem anúncios, sem algoritmo de recomendação e sem humanos. O resultado? Polarização extrema, radicalização e uma lição nada otimista sobre nós mesmos.
Por

Tempo de leitura: 3 minutos

As redes sociais são frequentemente acusadas de potencializar a polarização política e social, mas e se o problema não fosse apenas o algoritmo? Um estudo da Universidade de Amsterdã decidiu investigar como inteligências artificiais interagiriam em um ambiente sem anúncios, sem recomendações automáticas e com igualdade de visibilidade para todos. O que descobriram foi que, mesmo nesse cenário “idealizado”, as divisões e os extremos floresceram rapidamente.

Como foi feito o experimento

O projeto, publicado em pré-print na plataforma arXiv, reuniu 500 chatbots baseados no modelo GPT-4o mini, cada um com uma persona política ou social predefinida. Esses bots foram inseridos em uma rede social simplificada, sem recursos para impulsionar postagens, sem feed manipulado e sem publicidade.

Em cinco experimentos diferentes, totalizando 10 mil interações, os bots publicaram, seguiram e compartilharam conteúdo entre si. Com o tempo, ocorreu algo inquietantemente familiar: cada IA passou a seguir contas com opiniões semelhantes, formando câmaras de eco. Perfis que publicavam conteúdo mais partidário atraíam mais seguidores e repostagens, reproduzindo o mesmo comportamento observado em plataformas reais.

Um espelho das piores tendências humanas

Os resultados não são exatamente animadores. Apesar de não haver influência direta de algoritmos, os bots replicaram padrões humanos de segregação e radicalização — possivelmente porque foram treinados com dados que refletem décadas de interações online marcadas por polarização. Em outras palavras, as IAs herdaram nossa “mente moldada pelo feed”.

Segundo os pesquisadores, isso indica que o problema não é apenas tecnológico: mesmo sem as engrenagens ocultas das redes, a estrutura social tende a se organizar de forma polarizada.

Tentativas de reduzir a polarização

Para combater essa auto-seleção de ideias semelhantes, os cientistas testaram várias intervenções:

  • Feed cronológico

  • Desvalorização de conteúdo viral

  • Ocultação de número de seguidores e repostagens

  • Remoção de informações de perfil

  • Amplificação de pontos de vista opostos

Em um estudo anterior, essa última estratégia havia gerado alta interação com baixa toxicidade. No entanto, desta vez, nenhuma medida conseguiu reduzir a polarização em mais de 6%. Pior: quando os perfis foram ocultados, o conteúdo mais extremo ganhou ainda mais destaque.

O que isso diz sobre as redes sociais

Para os autores, a conclusão é dura: talvez a própria estrutura das redes sociais seja incompatível com uma convivência saudável — seja entre humanos ou inteligências artificiais. O ambiente digital funciona como um espelho deformado, refletindo nossas piores inclinações e distorcendo a percepção que temos uns dos outros.

Seja na simulação ou na vida real, a tendência é reforçar o “nós contra eles”, favorecendo interações que confirmam crenças e marginalizam vozes divergentes.

E agora?

O estudo não oferece soluções definitivas, mas reforça que qualquer tentativa de “consertar” as redes precisa ir além de ajustes no algoritmo. É um alerta: as divisões não dependem apenas da tecnologia — elas já estão profundamente enraizadas no comportamento que ensinamos às máquinas.

Se a experiência com bots mostrou algo, é que as redes sociais não criam o problema sozinhas, mas têm uma capacidade extraordinária de amplificá-lo. E talvez, para mudar isso, seja necessário repensar toda a lógica de como nos conectamos online.

 

Partilhe este artigo

Artigos relacionados