Pular para o conteúdo
Ciência

Como criminosos estão usando IA para enganar e atacar

Modelos avançados de inteligência artificial estão sendo manipulados por cibercriminosos para criar versões sem filtros, capazes de gerar conteúdo malicioso sem restrições. Esses sistemas clandestinos estão se espalhando por redes como o Telegram e podem estar usando tecnologias de ponta. O perigo cresce nas sombras da internet.
Por

Tempo de leitura: 2 minutos

Enquanto empresas de tecnologia reforçam as barreiras de segurança da inteligência artificial, um fenômeno preocupante se espalha discretamente: modelos legítimos estão sendo reconfigurados para fins criminosos. No Brasil e no mundo, cresce o risco de que essas IAs sejam utilizadas como ferramentas para ataques virtuais, fraudes e outras atividades ilícitas. Entenda como isso está acontecendo — e por que precisamos prestar atenção.

Quando a IA perde os limites

Modelos tradicionais de IA, como os que usamos no dia a dia, possuem filtros que bloqueiam usos perigosos. No entanto, hackers logo perceberam que poderiam contornar essas barreiras. Assim surgiu o WormGPT, uma IA criada sem qualquer restrição, ideal para redigir e-mails de phishing, desenvolver malware e realizar outras práticas ilegais.

Baseado em uma arquitetura poderosa (GPT-J com 6 bilhões de parâmetros), o WormGPT chegou a ser vendido online como um serviço voltado ao “mercado negro”. Após ser exposto por uma investigação jornalística em 2023, o projeto foi encerrado — mas sua ideia continuou viva.

Códigos obscuros que se multiplicam

Após a queda do WormGPT original, surgiram variantes com nomes como FraudGPT, EvilGPT e PoisonGPT. Todas compartilham a mesma proposta: gerar respostas sem qualquer censura. Algumas até oferecem pacotes com tutoriais de invasão e ferramentas para fraudes digitais.

Essas novas versões circulam principalmente pelo Telegram, onde são vendidas por bots anônimos. O mais alarmante é que muitas delas parecem se basear em tecnologias de ponta, como os modelos Mixtral e Grok, originalmente criados para usos legítimos.

Códigos Obscuros (2)
© Markus Spiske – Pexels

IA de última geração, usada para o mal

Um caso revelador foi publicado em outubro de 2024 por um usuário identificado como xzin0vich. A IA sem filtros que ele divulgou usava a base do modelo Mixtral, mas com comandos internos que ignoravam deliberadamente todas as restrições.

Outro exemplo veio em fevereiro de 2025: a versão de um hacker chamado keanu explorava a API do Grok — sistema da empresa xAI, de Elon Musk — para burlar seus filtros por meio de um prompt manipulado, sem alterar a estrutura original.

Uma ameaça que cresce no subterrâneo digital

O nome WormGPT hoje representa uma ideia mais do que um software: a criação de IAs sem controle, com potencial para causar danos reais. Algumas são desenvolvidas do zero, outras apenas reprogramadas. Todas representam uma nova fronteira no cibercrime.

Se nada for feito, o desequilíbrio entre segurança e ameaça pode se tornar incontrolável — e o Brasil, como qualquer outro país, também está exposto a esse risco digital silencioso.

Partilhe este artigo

Artigos relacionados