Pular para o conteúdo
Tecnologia

Dez hackers contra uma IA em um teste real de invasão — e o resultado deixou claro quem está na frente

Pesquisadores colocaram uma inteligência artificial para competir diretamente com hackers profissionais em um teste de segurança real. O resultado foi surpreendente: a IA venceu nove dos dez especialistas humanos, encontrou falhas mais rápido e por uma fração do custo — levantando questões incômodas sobre o futuro do hacking ético.
Por

Tempo de leitura: 3 minutos

As grandes empresas de tecnologia falam cada vez mais sobre a chegada da inteligência artificial geral, a famosa AGI. Mas, enquanto esse futuro ainda é incerto, há um campo específico em que a IA já começa a superar humanos de forma concreta: a cibersegurança ofensiva. Um experimento recente mostrou que, no duelo entre hackers profissionais e uma IA treinada para encontrar falhas, houve um vencedor bastante claro.

O experimento que colocou humanos e máquina frente a frente

Hacker (2)
© Getty Images – Dragos Condrea

O teste foi conduzido por pesquisadores da Universidade de Stanford e revelado em uma reportagem do Wall Street Journal. A equipe desenvolveu um bot de hacking chamado Artemis, projetado para vasculhar redes em busca de vulnerabilidades exploráveis — exatamente o tipo de trabalho realizado por pentesters, hackers éticos contratados para simular ataques.

Para o experimento, os pesquisadores liberaram o Artemis na própria rede de engenharia da universidade. Como medida de segurança, o sistema contava com um kill switch, que permitiria desligá-lo imediatamente caso algo saísse do controle.

Do outro lado, estavam dez pentesters profissionais. Eles receberam instruções claras: forçar os sistemas, testar falhas e mapear vulnerabilidades, mas sem chegar a comprometer totalmente a rede. Era um cenário controlado, porém bastante próximo do mundo real.

Resultados inesperados — até para os criadores da IA

O desfecho surpreendeu até os próprios pesquisadores. O Artemis superou nove dos dez hackers humanos, encontrando falhas de forma mais rápida e eficiente. Além disso, o custo operacional foi drasticamente menor.

Enquanto um pentester profissional costuma cobrar entre 2.000 e 2.500 dólares por dia, o Artemis “custava” cerca de 60 dólares por hora em recursos computacionais. Em termos de escala, isso muda completamente a equação econômica da segurança digital.

A velocidade também fez diferença. O bot foi capaz de escanear grandes volumes de sistemas sem fadiga, repetindo processos incansavelmente — algo impossível para humanos.

Onde a IA erra — e onde ela enxerga além

Apesar da vitória clara, o desempenho do Artemis esteve longe de ser perfeito. Aproximadamente 18% dos relatórios gerados pela IA eram falsos positivos, apontando falhas que, na prática, não representavam riscos reais.

Além disso, o bot deixou passar um erro bastante óbvio em um site — uma falha que os hackers humanos identificaram quase imediatamente. Esse tipo de julgamento contextual ainda favorece a experiência humana.

Por outro lado, a IA encontrou um bug que nenhum dos especialistas detectou. O motivo é revelador: a falha estava em uma página que não funcionava corretamente nem no Chrome nem no Firefox, os navegadores usados pelos hackers. O Artemis, por não “navegar” como uma pessoa, conseguiu ler o código da página diretamente e identificar o problema.

Esse episódio ilustra uma diferença fundamental: a IA não depende das mesmas ferramentas nem das mesmas limitações cognitivas dos humanos.

IA e hacking: uma relação que já existe no submundo digital

Hackers
© Freepik

Enquanto pesquisadores exploram o uso defensivo da IA, cibercriminosos já vêm utilizando essas tecnologias há algum tempo. Modelos de linguagem e agentes autônomos estão sendo empregados para tornar malwares mais eficientes, automatizar ataques e escalar operações de espionagem.

Recentemente, a Anthropic revelou que um grupo de hackers chineses usou o Claude Code em uma campanha de espionagem em larga escala. O mais preocupante foi o papel do modelo: ele atuava como um agente completo, cobrindo praticamente todo o ciclo de ataque, e não apenas tarefas isoladas.

IA como aliada da segurança — e ameaça a uma profissão

Experimentos como o de Stanford mostram que a IA não precisa ser apenas uma arma nas mãos de criminosos. Ela também pode se tornar uma ferramenta poderosa para reforçar a segurança, identificar falhas rapidamente e permitir que sistemas sejam corrigidos antes de sofrer ataques reais.

Ao mesmo tempo, surge uma questão inevitável: qual será o futuro dos pentesters humanos? Se uma IA consegue realizar grande parte do trabalho por uma fração do custo, o papel desses profissionais tende a mudar — talvez migrando para tarefas mais estratégicas, de validação e interpretação.

Um alerta sobre o que vem pela frente

O caso do Artemis deixa claro que não estamos falando de uma AGI capaz de superar humanos em tudo. Mas, em nichos muito específicos, a inteligência artificial já demonstra vantagens difíceis de ignorar.

No mundo da cibersegurança, a pergunta já não é se a IA vai participar do jogo — mas quem estará no controle quando ela se tornar a principal jogadora.

 

[ Fonte: Xataka ]

 

Partilhe este artigo

Artigos relacionados