Pular para o conteúdo
Tecnologia

Empresas de criptomoedas querem acesso a IA “perigosa” da Anthropic — e o motivo revela um novo risco na segurança digital

Um modelo de inteligência artificial considerado “super perigoso” está sendo disputado por empresas do setor cripto. Capaz de identificar falhas críticas de segurança, ele também levanta um temor: a mesma tecnologia que protege pode ser usada para atacar sistemas em larga escala.
Por

Tempo de leitura: 3 minutos

A corrida pela inteligência artificial entrou em um território delicado: a segurança digital. Um novo modelo da Anthropic, chamado Claude Mythos, chamou atenção por sua capacidade de detectar vulnerabilidades complexas — mas também por seu potencial de exploração. E isso já despertou o interesse de empresas de criptomoedas, que querem acesso à ferramenta o quanto antes.

Um modelo poderoso — e restrito

O Claude Mythos não está disponível ao público. A própria Anthropic limitou seu acesso a poucos parceiros selecionados.

O motivo é claro: a empresa acredita que o modelo é capaz de encontrar falhas de segurança que passariam despercebidas até mesmo por especialistas altamente qualificados.

Mais do que isso, há o receio de que essa capacidade possa ser usada para explorar sistemas em larga escala, caso caia nas mãos erradas.

Por que o setor cripto está interessado

Empresas do setor de criptomoedas lidam diariamente com ativos digitais que somam bilhões de dólares. Isso as torna alvos constantes de ataques cibernéticos.

Plataformas como Coinbase e Binance já utilizam inteligência artificial para testar seus sistemas e identificar vulnerabilidades antes que hackers façam isso.

A lógica é simples: usar IA ofensiva de forma controlada para fortalecer a defesa.

Nesse contexto, ter acesso a um modelo mais avançado como o Mythos poderia representar uma vantagem significativa.

IA como ferramenta de ataque e defesa

O problema é que a mesma tecnologia que ajuda a proteger também pode ser usada para atacar.

Segundo a Anthropic, o modelo já foi capaz de identificar falhas escondidas em sistemas antigos por décadas. Isso mostra o potencial da ferramenta — mas também o risco.

Se uma IA consegue encontrar vulnerabilidades com esse nível de precisão, ela também pode ser usada para explorá-las rapidamente, automatizando ataques em escala.

Um histórico de vulnerabilidades

O interesse do setor cripto não é exagero. Plataformas como a Coinbase já enfrentaram incidentes relevantes de segurança, incluindo vazamentos de dados sensíveis.

Empresas como a Fireblocks também usam modelos de IA para testes de penetração (pentesting) e afirmam que essas ferramentas já identificaram falhas que humanos não perceberam.

Isso reforça a ideia de que a IA está se tornando uma peça central na segurança digital.

Por que a Anthropic está segurando o acesso

A decisão da Anthropic de restringir o modelo não é apenas técnica, mas estratégica.

Liberar uma ferramenta com esse nível de capacidade sem controle pode abrir portas para ataques sofisticados em setores críticos — incluindo o financeiro.

O setor cripto, por sua própria natureza, é especialmente sensível. Qualquer vulnerabilidade explorada pode resultar em perdas massivas e imediatas.

A corrida entre gigantes da IA

Enquanto isso, outras empresas também se movimentam. A OpenAI estaria preparando ferramentas próprias focadas em cibersegurança, ainda em acesso limitado.

Isso indica que estamos entrando em uma nova fase: a IA não apenas como assistente, mas como ferramenta ativa na guerra digital.

Um futuro de alto risco e alto potencial

O caso do Claude Mythos mostra como a inteligência artificial está redefinindo os limites da segurança.

De um lado, ela pode tornar sistemas muito mais seguros. Do outro, pode ampliar drasticamente a capacidade de ataque.

A disputa pelo acesso ao modelo revela uma tensão crescente: quem deve ter acesso a tecnologias tão poderosas?

Por enquanto, a resposta parece ser cautela.

Mas, à medida que essas ferramentas evoluem, essa discussão deve se tornar cada vez mais urgente — e inevitável.

 

Partilhe este artigo

Artigos relacionados