Enquanto empresas de tecnologia reforçam as barreiras de segurança da inteligência artificial, um fenômeno preocupante se espalha discretamente: modelos legítimos estão sendo reconfigurados para fins criminosos. No Brasil e no mundo, cresce o risco de que essas IAs sejam utilizadas como ferramentas para ataques virtuais, fraudes e outras atividades ilícitas. Entenda como isso está acontecendo — e por que precisamos prestar atenção.
Quando a IA perde os limites
Modelos tradicionais de IA, como os que usamos no dia a dia, possuem filtros que bloqueiam usos perigosos. No entanto, hackers logo perceberam que poderiam contornar essas barreiras. Assim surgiu o WormGPT, uma IA criada sem qualquer restrição, ideal para redigir e-mails de phishing, desenvolver malware e realizar outras práticas ilegais.
Baseado em uma arquitetura poderosa (GPT-J com 6 bilhões de parâmetros), o WormGPT chegou a ser vendido online como um serviço voltado ao “mercado negro”. Após ser exposto por uma investigação jornalística em 2023, o projeto foi encerrado — mas sua ideia continuou viva.
Códigos obscuros que se multiplicam
Após a queda do WormGPT original, surgiram variantes com nomes como FraudGPT, EvilGPT e PoisonGPT. Todas compartilham a mesma proposta: gerar respostas sem qualquer censura. Algumas até oferecem pacotes com tutoriais de invasão e ferramentas para fraudes digitais.
Essas novas versões circulam principalmente pelo Telegram, onde são vendidas por bots anônimos. O mais alarmante é que muitas delas parecem se basear em tecnologias de ponta, como os modelos Mixtral e Grok, originalmente criados para usos legítimos.

IA de última geração, usada para o mal
Um caso revelador foi publicado em outubro de 2024 por um usuário identificado como xzin0vich. A IA sem filtros que ele divulgou usava a base do modelo Mixtral, mas com comandos internos que ignoravam deliberadamente todas as restrições.
Outro exemplo veio em fevereiro de 2025: a versão de um hacker chamado keanu explorava a API do Grok — sistema da empresa xAI, de Elon Musk — para burlar seus filtros por meio de um prompt manipulado, sem alterar a estrutura original.
Uma ameaça que cresce no subterrâneo digital
O nome WormGPT hoje representa uma ideia mais do que um software: a criação de IAs sem controle, com potencial para causar danos reais. Algumas são desenvolvidas do zero, outras apenas reprogramadas. Todas representam uma nova fronteira no cibercrime.
Se nada for feito, o desequilíbrio entre segurança e ameaça pode se tornar incontrolável — e o Brasil, como qualquer outro país, também está exposto a esse risco digital silencioso.