O ransomware já é considerado um dos maiores pesadelos digitais, mas uma nova tática de extorsão surpreendeu especialistas em cibersegurança. Hackers que invadiram uma plataforma de artistas não apenas exigiram dinheiro para devolver o controle do site, como também ameaçaram entregar as ilustrações roubadas a empresas de inteligência artificial para treinar modelos. A chantagem lança luz sobre a tensão crescente entre a arte digital e o avanço da IA.
O ataque à Artists&Clients
No dia 30 de agosto, a plataforma Artists&Clients, que conecta artistas a clientes ao redor do mundo, foi alvo de um ataque de ransomware. Os criminosos digitais do grupo LunaLock roubaram e-mails, senhas e até o código-fonte da página, deixando o site inacessível.
Embora a administração da plataforma ainda não tenha se pronunciado oficialmente, usuários expressaram preocupação em fóruns como Reddit, relatando medo de que seus trabalhos e dados pessoais sejam expostos.
A mensagem enviada pelos hackers seguia o padrão típico: pagar o resgate ou ver os dados publicados. No entanto, incluía uma novidade perturbadora: a ameaça de enviar todas as ilustrações roubadas a empresas de inteligência artificial para serem usadas em bases de treinamento de modelos.
IA como arma de pressão inédita
Segundo especialistas da empresa de cibersegurança Flare, esta é a primeira vez que a ameaça de treinar IA com dados roubados aparece como ferramenta de chantagem. A escolha não é aleatória: o debate sobre a apropriação de obras de arte por algoritmos está em alta e mobiliza milhares de criadores.
Desde a popularização de modelos generativos de imagem, artistas denunciam que suas criações foram utilizadas sem consentimento para treinar essas tecnologias. Algumas ações judiciais já foram abertas, enquanto outros profissionais recorrem a técnicas que “envenenam” os arquivos para impedir que sejam aproveitados por algoritmos.
Credits: https://t.co/1CbakT7owQ pic.twitter.com/OUrHZTxkpb
— Artists&Clients (@artistsnclients) January 16, 2023
Cibercrime e inteligência artificial
Embora neste caso a inteligência artificial não tenha sido usada diretamente para executar o ataque, a simples menção a ela como ameaça intensificou o peso do sequestro digital. De acordo com relatórios recentes, o uso de IA no cibercrime vem crescendo: algoritmos já são aplicados para desenvolver códigos de ransomware, automatizar ataques e até identificar alvos mais vulneráveis.
A ação do grupo LunaLock ilustra um novo caminho: explorar o medo social em torno da IA como elemento de pressão psicológica. Ao envolver o universo artístico —um dos mais críticos quanto ao impacto dessas tecnologias— os hackers buscam ampliar a sensação de perda e desespero.
Uma ameaça dupla: dados e criatividade em risco
Se o ransomware tradicional já representa risco para empresas e indivíduos ao sequestrar dados confidenciais, a novidade é que agora também ameaça a integridade de produções criativas. As obras de artistas digitais, muitas vezes fruto de anos de dedicação, correm o risco de serem exploradas por sistemas de IA sem crédito ou remuneração.
Esse episódio marca, segundo especialistas, um ponto de inflexão: a inteligência artificial não apenas amplia o arsenal dos cibercriminosos, mas também se transforma em moeda de troca no próprio discurso de extorsão.