Pular para o conteúdo
Tecnologia

Bloquear conteúdo político extremo reduz a polarização: o experimento em X que surpreendeu cientistas durante as eleições dos EUA

Um grupo de pesquisadores dos EUA testou uma ferramenta capaz de bloquear, em tempo real, conteúdos políticos extremistas na rede X. Durante dez dias, mais de mil usuários navegaram sem posts agressivos ou antidemocráticos — e os resultados surpreenderam: menos ira, menos polarização e mais empatia entre pessoas de posições políticas diferentes.
Por

Tempo de leitura: 3 minutos

As redes sociais moldam debates políticos no mundo inteiro, e seus algoritmos, muitas vezes opacos, amplificam conteúdos que provocam indignação e confronto. Buscando entender esse impacto, cientistas de diversas universidades americanas testaram uma ferramenta que reorganiza e filtra publicações extremistas em X (antigo Twitter). A experiência, realizada durante a campanha presidencial dos EUA de 2024, revelou mudanças emocionais e comportamentais profundas entre os voluntários.

Como funciona a ferramenta que “limpa” o feed político

O estudo, publicado na revista Science, foi conduzido por pesquisadores das universidades de Stanford, Washington, Nova York e Johns Hopkins. Preocupados com a falta de transparência das plataformas, eles criaram uma solução que não depende do acesso aos algoritmos internos do X.

A ferramenta funciona em tempo real, reordenando o conteúdo político que aparece para o usuário enquanto ele navega. Por meio de inteligência artificial, ela identifica publicações com linguagem extremista, antidemocrática ou que fazem apologia da violência contra partidos rivais — e simplesmente bloqueia esses posts antes que o usuário os veja.

O objetivo: entender se reduzir a exposição a discursos de ódio político mudaria o comportamento dos usuários.

O experimento com mais de mil participantes em plena campanha eleitoral

A equipe recrutou 1.256 usuários ativos do X e aplicou o filtro durante dez dias, exatamente no período da campanha presidencial dos Estados Unidos de 2024 — um momento em que a retórica agressiva nas redes sociais costuma disparar.

Os participantes continuaram usando a plataforma normalmente, mas sem perceber que certos conteúdos haviam sido filtrados. Não se tratava de manipulação ideológica, mas de uma intervenção focada apenas em eliminar discursos violentos, hostis ou explicitamente antidemocráticos.

A partir daí, os cientistas acompanharam a evolução emocional e política dessas pessoas, analisando mudanças de humor, irritação, atitudes partidárias e empatia.

Menos agressividade, menos tristeza e mais abertura ao diálogo

Os resultados surpreenderam até mesmo os autores do estudo. Ao remover conteúdos que estimulavam confrontos ou alimentavam o rancor entre grupos políticos, a polarização diminuiu significativamente.

Os participantes passaram a demonstrar:

  • menos ira dirigidas ao partido oposto

  • menos tristeza associada ao debate político

  • maior empatia por pessoas de ideologias diferentes

  • avaliações mais positivas sobre o partido rival

Segundo o pesquisador Tiziano Piccardi, da Universidade Johns Hopkins, a mudança foi clara: “Quando os participantes foram expostos a menos conteúdo extremo ou verbalmente violento, tornaram-se mais empáticos e tolerantes com pessoas do partido contrário.”

E o efeito foi bipartidário: tanto usuários de esquerda quanto conservadores apresentaram a mesma tendência de redução de hostilidade.

O papel dos algoritmos na amplificação da polarização

Os autores lembram que as redes sociais são hoje uma das principais fontes de informação política — e que seus algoritmos, ao priorizar engajamento, frequentemente empurram o usuário para conteúdos mais emocionais, chocantes ou agressivos.

A falta de transparência faz com que pesquisadores tenham grande dificuldade em estudar esses sistemas, que, segundo o estudo, “influenciam as emoções e percepções de forma sutil, mas determinante”.

Ao criar uma ferramenta independente, os cientistas conseguiram observar diretamente como o tipo de conteúdo consumido altera o comportamento político.

Uma possível solução para o debate tóxico nas redes

Para os pesquisadores, o experimento aponta para um caminho promissor: intervenções tecnológicas que reduzam o conteúdo politicamente agressivo podem melhorar a qualidade do debate público.

Ao diminuir impulsos de raiva, ressentimento e hostilidade, filtros como este podem favorecer conversas mais calmas e construtivas — sem impedir o acesso a opiniões divergentes.

Segundo Piccardi, o estudo sugere que políticas de moderação mais focadas em linguagem violenta, e menos em viés político, “podem mitigar a polarização e contribuir para ambientes digitais mais saudáveis”.

A tecnologia ainda está em fase experimental, mas já indica que pequenas mudanças no que vemos nas redes podem ter grandes efeitos sobre como pensamos, sentimos e debatemos política.

 

[ Fonte: DW ]

 

Partilhe este artigo

Artigos relacionados