A inteligência artificial avançou a passos largos em 2025, e um dos campos onde isso ficou mais evidente — e preocupante — foi o dos deepfakes. Vídeos falsos, vozes clonadas e imagens sintéticas deixaram de ser curiosidades tecnológicas para se tornarem ferramentas sofisticadas de engano. Em redes sociais, chamadas de vídeo e conteúdos de baixa resolução, distinguir o que é real do que é artificial tornou-se um desafio até para profissionais.
A explosão dos deepfakes em escala e qualidade
Ao longo de 2025, os deepfakes não apenas melhoraram visualmente, como também se multiplicaram em volume. Estimativas de empresas de cibersegurança indicam que o número de vídeos, imagens e áudios falsos saltou de cerca de 500 mil em 2023 para aproximadamente 8 milhões em 2025 — um crescimento anual próximo de 900%.
Esse aumento exponencial ocorre porque a tecnologia se tornou mais acessível. Hoje, qualquer pessoa com um computador e ferramentas disponíveis ao público pode criar conteúdos falsos altamente convincentes em questão de minutos.
O que mudou na tecnologia por trás do engano
O primeiro grande salto veio dos novos modelos de geração de vídeo, capazes de manter coerência temporal. Isso significa movimentos naturais, identidade visual estável e continuidade entre quadros, sem os “erros” clássicos que antes denunciavam a falsificação, como olhos estranhos ou distorções no rosto.
O segundo avanço decisivo foi a clonagem de voz. Bastam poucos segundos de áudio para gerar uma voz sintética praticamente idêntica à original, com entonação, pausas, emoção e até sons de respiração. Esse recurso já está sendo explorado em golpes financeiros em larga escala.
Por fim, as plataformas de uso geral reduziram quase a zero as barreiras técnicas. Modelos avançados de texto, imagem e vídeo permitem automatizar todo o processo criativo, do roteiro à produção audiovisual, sem exigir conhecimento especializado.
Por que detectar deepfakes ficou tão difícil
A combinação de alta qualidade e produção em massa cria um cenário especialmente perigoso. Em ambientes digitais onde o consumo de conteúdo é rápido e fragmentado, não há tempo para checagem cuidadosa. O resultado é a disseminação de desinformação, fraudes, assédio direcionado e danos reais antes que o conteúdo falso seja identificado.
O olhar humano, que antes bastava para encontrar pistas visuais, já não é uma defesa confiável.
O próximo passo: deepfakes em tempo real
O futuro imediato aponta para deepfakes interativos e em tempo real. Em vez de vídeos pré-gravados, veremos avatares que respondem, conversam e se adaptam instantaneamente em chamadas de vídeo. Esses sistemas não apenas imitarão a aparência de alguém, mas também seu comportamento, gestos e maneira de falar ao longo do tempo.
A nova linha de defesa
Diante desse cenário, a proteção não virá mais da percepção humana, mas da infraestrutura. Soluções como certificação criptográfica de origem, padrões de autenticidade de conteúdo e ferramentas forenses automatizadas serão essenciais para separar o real do sintético.
Em um mundo onde os pixels já não denunciam a mentira, a confiança precisará ser reconstruída em camadas mais profundas da tecnologia.