A tecnologia avança em ritmo acelerado e, com ela, surgem novas fronteiras éticas e legais. O uso da inteligência artificial para fins duvidosos se tornou um problema crescente. No Brasil e no mundo, proliferam plataformas que “desnudam” pessoas com IA, sem consentimento. Mais do que uma ameaça à privacidade, trata-se de um fenômeno global que desafia a legislação, a segurança digital e os limites da própria tecnologia.
Um mercado invisível, mas extremamente lucrativo
De acordo com uma investigação da Indicator, mais de 85 sites especializados em gerar imagens íntimas falsas com IA recebem, juntos, cerca de 18,5 milhões de visitantes por mês. Com modelos de assinatura e venda de créditos, estima-se que esses serviços estejam faturando até 36 milhões de dólares ao ano.
A operação dessas plataformas é sustentada por serviços de grandes empresas como Amazon, Google e Cloudflare, que fornecem estrutura de hospedagem, login e distribuição de conteúdo. A passividade inicial das big techs permitiu que esses serviços se transformassem de práticas isoladas em um verdadeiro sistema informal e altamente rentável.
Como funcionam e por que são difíceis de derrubar
Essas plataformas utilizam imagens roubadas de redes sociais ou enviadas pelos próprios usuários, que depois são manipuladas por algoritmos treinados para gerar imagens falsas de nudez. A produção é rápida, automatizada e impactante. As principais vítimas são mulheres e meninas, muitas vezes menores de idade, o que agrava ainda mais a gravidade da situação.
Especialistas em cibersegurança alertam que essas imagens, uma vez criadas e compartilhadas, são quase impossíveis de remover da internet. Além disso, os sites frequentemente utilizam sistemas legítimos de login e pagamento, o que dificulta sua identificação como serviços ilegais. Mesmo quando são derrubados, os administradores rapidamente reaparecem com nomes e domínios diferentes.
Leis, punições e o futuro da regulamentação
Com o aumento da pressão social, governos e empresas começaram a reagir. Nos Estados Unidos, foram aprovadas leis exigindo a remoção imediata de conteúdos não consentidos. O Reino Unido proibiu legalmente os deepfakes explícitos. Já empresas como Microsoft e Meta entraram com processos contra os responsáveis por essas aplicações.
No entanto, especialistas como Henry Ajder, referência no estudo de deepfakes, afirmam que essas medidas são tímidas diante da escala do problema. Sem uma ação global coordenada, o mercado continuará crescendo — e o preço será pago pela privacidade e dignidade das vítimas.
Se não forem tomadas medidas mais severas, essas ferramentas continuarão burlando as regras e explorando brechas no sistema. A tecnologia pode ser uma aliada, mas também pode se tornar uma arma quando usada sem limites.