Pular para o conteúdo
Tecnologia

Adeus aos trailers falsos feitos com IA no YouTube: a plataforma derruba canais que enganavam milhões com vídeos de filmes que não existiam

Depois de meses de reclamações, dois dos principais responsáveis pela avalanche de trailers falsos gerados por inteligência artificial foram removidos do YouTube. A decisão expõe os limites da IA criativa, os interesses dos estúdios e a dificuldade de manter a credibilidade em plataformas abertas.
Por

Tempo de leitura: 3 minutos

Encontrar um trailer de filme no YouTube virou, nos últimos tempos, um exercício de frustração. Em vez de vídeos oficiais, muitos usuários se deparavam com montagens enganosas, criadas com inteligência artificial, que simulavam trailers de produções inexistentes ou ainda não lançadas. Agora, ao menos parte desse problema começa a ser enfrentada.

Segundo apuração do site Deadline, o YouTube removeu do ar dois dos canais mais conhecidos por esse tipo de conteúdo: Screen Culture e KH Studio. Juntos, eles somavam mais de 2 milhões de inscritos e ultrapassavam a marca de 1 bilhão de visualizações.

O problema dos trailers que nunca existiram

Os dois canais se especializaram em criar ou divulgar “trailers” feitos com IA generativa, muitas vezes misturando cenas antigas, imagens sintéticas e narrações falsas. O resultado parecia convincente o suficiente para enganar usuários comuns — e até para confundir algoritmos de recomendação.

Entre os exemplos estavam supostos trailers de filmes como Fantastic Four: First Steps e Superman, além de séries populares como Squid Game. Em muitos casos, essas produções sequer tinham material promocional oficial disponível, o que tornava a busca por trailers ainda mais propensa a cair em armadilhas.

Ao acessar hoje as páginas desses canais, o aviso é direto: “Esta página não está disponível. Tente procurar outra coisa”.

Monetização, estúdios e o estopim da queda

A queda não aconteceu do nada. Após uma investigação anterior do Deadline, o YouTube passou a restringir a atuação desses canais. Primeiro, eles foram suspensos do programa de parceiros. Depois, a plataforma pausou a veiculação de anúncios em seus vídeos.

O motivo oficial foi a violação das regras de monetização. Segundo a apuração, os canais permitiam que grandes estúdios — como a Disney — ficassem com parte da receita gerada pelos vídeos, algo que contraria as políticas do YouTube. Na prática, isso expôs uma zona cinzenta: trailers falsos lucrando com propriedades intelectuais reais, enquanto estúdios se beneficiavam indiretamente da audiência.

A posição ambígua da Disney sobre IA

O episódio também evidencia a postura contraditória da Disney em relação à inteligência artificial generativa. De um lado, a empresa tem adotado uma postura agressiva contra o uso não autorizado de seus personagens e franquias. Recentemente, enviou uma notificação extrajudicial ao Google, alegando que serviços de IA da empresa violariam direitos autorais.

Por outro lado, quase ao mesmo tempo, a Disney anunciou um acordo de licenciamento de três anos e um investimento de US$ 1 bilhão na OpenAI. O objetivo: levar mais de 200 personagens da empresa para o ChatGPT e para a plataforma de vídeos Sora.

A mensagem que fica é clara: a IA generativa é um problema quando está fora do controle dos estúdios, mas se torna uma oportunidade quando integrada aos seus próprios ecossistemas — como o Disney+.

Um alívio parcial para usuários, não o fim do problema

A remoção de Screen Culture e KH Studio representa uma vitória simbólica para quem busca conteúdo confiável no YouTube. A plataforma já havia admitido, no início do ano, que estava ciente da proliferação de trailers falsos e do impacto negativo na experiência dos usuários.

Ainda assim, o problema está longe de resolvido. A facilidade de criar vídeos com IA, aliada à lógica de cliques e monetização, continua incentivando a produção de conteúdo enganoso. Derrubar dois canais grandes não impede que outros menores surjam rapidamente para ocupar o mesmo espaço.

O desafio de separar criatividade de enganação

O caso levanta uma questão mais ampla sobre o uso da IA no entretenimento. Ferramentas generativas podem ser criativas, experimentais e até artísticas. O problema surge quando são usadas para simular conteúdos oficiais, confundir o público e explorar marcas alheias.

Por enquanto, a remoção desses canais ao menos torna a busca por trailers reais um pouco menos caótica. Mas o episódio deixa claro que, sem regras mais claras e aplicação consistente, a fronteira entre criatividade e desinformação continuará sendo testada — especialmente em plataformas abertas como o YouTube.

 

Partilhe este artigo

Artigos relacionados