Pular para o conteúdo

O que realmente impulsiona as fake news pode não ser o que você pensa — e isso muda tudo

Um estudo recente desafia uma ideia muito repetida sobre desinformação. Ao mudar o ambiente digital, o comportamento das pessoas também muda — e o resultado surpreende.

Durante anos, acreditou-se que notícias falsas se espalham mais porque são naturalmente mais atraentes. Essa explicação simples ajudou a consolidar uma visão pessimista sobre o comportamento humano nas redes. Mas novas evidências sugerem algo mais incômodo — e talvez mais relevante. O problema pode não estar tanto nas pessoas, mas no ambiente digital que molda o que vemos, compartilhamos e acabamos acreditando.

Quando os algoritmos saem da equação, o comportamento muda

Um estudo liderado por pesquisadores da University of Western Australia analisou mais de 4.600 participantes em diferentes cenários controlados. A proposta era direta: observar como as pessoas criam e compartilham informações quando não há interferência de algoritmos ou sistemas de recomendação.

O resultado contraria uma das ideias mais difundidas sobre a internet. Sem a influência das plataformas, conteúdos verdadeiros não apenas competem de igual para igual com os falsos — eles frequentemente se mostram mais eficazes.

Os participantes foram convidados a produzir mensagens com o objetivo de convencer ou atrair outras pessoas. Nesse contexto, informações verificadas foram consideradas mais confiáveis e, em muitos casos, mais persuasivas. Mesmo quando o foco era chamar atenção, a desinformação não demonstrou vantagem clara.

Esse ponto é crucial porque desmonta uma suposição comum: a de que o conteúdo enganoso vence por ser mais interessante por natureza. O estudo sugere o oposto. Fora de um ambiente que favoreça certos tipos de conteúdo, as pessoas não tendem espontaneamente a priorizar o que é falso.

O papel invisível das plataformas na viralização

Se a desinformação não domina naturalmente, então por que ela se espalha tanto nas redes sociais? A resposta começa a aparecer quando olhamos para o funcionamento dos algoritmos.

As plataformas digitais operam com base em métricas como engajamento, tempo de visualização e reações emocionais. Esse tipo de lógica não distingue necessariamente entre verdade e mentira — apenas identifica o que prende mais atenção.

Conteúdos mais polêmicos, surpreendentes ou emocionalmente intensos tendem a performar melhor dentro desse sistema. E, muitas vezes, esse perfil coincide com o tipo de mensagem que distorce fatos ou exagera informações.

Esse cenário ajuda a explicar resultados de estudos anteriores, como o publicado na revista Science, que apontava que notícias falsas se espalhavam mais rápido em redes sociais. A diferença agora é que o novo trabalho separa dois fatores que antes estavam misturados: o comportamento humano e o ambiente digital.

A conclusão não invalida pesquisas anteriores, mas adiciona uma camada importante. A viralidade não depende apenas do conteúdo em si, mas da estrutura que o amplifica.

Fake News2
© RichVintage – Getty Images

Compartilhar nem sempre significa acreditar

Outro aspecto relevante revelado pelo estudo é que compartilhar informação não é o mesmo que acreditar nela. Muitas vezes, o ato de compartilhar está ligado a fatores sociais — como provocar reações, iniciar conversas ou reforçar vínculos.

Isso ajuda a entender por que conteúdos enganosos circulam com facilidade. Eles podem gerar surpresa, indignação ou humor, elementos que incentivam o compartilhamento mesmo quando a credibilidade é questionável.

Além disso, existe o chamado “efeito de verdade ilusória”, no qual a repetição de uma informação aumenta sua aparência de veracidade. Em um ambiente onde certos conteúdos são constantemente impulsionados, esse efeito se torna ainda mais forte.

O estudo também analisou textos gerados por inteligência artificial, como os produzidos por GPT-3.5. Curiosamente, esses conteúdos foram avaliados como mais persuasivos e mais propensos a serem compartilhados, especialmente quando construídos com base em informações corretas.

Isso introduz um novo desafio: não se trata apenas de distinguir entre verdade e mentira, mas de entender como mensagens são formuladas para maximizar impacto.

O problema pode estar menos nas pessoas e mais no sistema

Apesar de suas limitações — como o fato de ter sido realizado em ambiente controlado —, o estudo traz uma contribuição importante ao debate sobre desinformação.

Ele sugere que o foco não deve estar apenas no comportamento individual, mas também na arquitetura das plataformas digitais. A forma como os algoritmos selecionam e priorizam conteúdos influencia diretamente o que se torna visível — e, consequentemente, o que ganha escala.

Isso não elimina a responsabilidade de quem compartilha informações. Mas muda o enquadramento do problema. Em vez de assumir que as pessoas preferem o que é falso, talvez seja mais preciso investigar como certos conteúdos são promovidos e amplificados.

No fim, entender a desinformação exige olhar além das escolhas individuais. É preciso analisar o sistema que define quais vozes são ouvidas — e quais acabam dominando a conversa.

Você também pode gostar

Modo

Follow us