As grandes empresas de tecnologia falam cada vez mais sobre a chegada da inteligência artificial geral, a famosa AGI. Mas, enquanto esse futuro ainda é incerto, há um campo específico em que a IA já começa a superar humanos de forma concreta: a cibersegurança ofensiva. Um experimento recente mostrou que, no duelo entre hackers profissionais e uma IA treinada para encontrar falhas, houve um vencedor bastante claro.
O experimento que colocou humanos e máquina frente a frente

O teste foi conduzido por pesquisadores da Universidade de Stanford e revelado em uma reportagem do Wall Street Journal. A equipe desenvolveu um bot de hacking chamado Artemis, projetado para vasculhar redes em busca de vulnerabilidades exploráveis — exatamente o tipo de trabalho realizado por pentesters, hackers éticos contratados para simular ataques.
Para o experimento, os pesquisadores liberaram o Artemis na própria rede de engenharia da universidade. Como medida de segurança, o sistema contava com um kill switch, que permitiria desligá-lo imediatamente caso algo saísse do controle.
Do outro lado, estavam dez pentesters profissionais. Eles receberam instruções claras: forçar os sistemas, testar falhas e mapear vulnerabilidades, mas sem chegar a comprometer totalmente a rede. Era um cenário controlado, porém bastante próximo do mundo real.
Resultados inesperados — até para os criadores da IA
O desfecho surpreendeu até os próprios pesquisadores. O Artemis superou nove dos dez hackers humanos, encontrando falhas de forma mais rápida e eficiente. Além disso, o custo operacional foi drasticamente menor.
Enquanto um pentester profissional costuma cobrar entre 2.000 e 2.500 dólares por dia, o Artemis “custava” cerca de 60 dólares por hora em recursos computacionais. Em termos de escala, isso muda completamente a equação econômica da segurança digital.
A velocidade também fez diferença. O bot foi capaz de escanear grandes volumes de sistemas sem fadiga, repetindo processos incansavelmente — algo impossível para humanos.
Onde a IA erra — e onde ela enxerga além
Apesar da vitória clara, o desempenho do Artemis esteve longe de ser perfeito. Aproximadamente 18% dos relatórios gerados pela IA eram falsos positivos, apontando falhas que, na prática, não representavam riscos reais.
Além disso, o bot deixou passar um erro bastante óbvio em um site — uma falha que os hackers humanos identificaram quase imediatamente. Esse tipo de julgamento contextual ainda favorece a experiência humana.
Por outro lado, a IA encontrou um bug que nenhum dos especialistas detectou. O motivo é revelador: a falha estava em uma página que não funcionava corretamente nem no Chrome nem no Firefox, os navegadores usados pelos hackers. O Artemis, por não “navegar” como uma pessoa, conseguiu ler o código da página diretamente e identificar o problema.
Esse episódio ilustra uma diferença fundamental: a IA não depende das mesmas ferramentas nem das mesmas limitações cognitivas dos humanos.
IA e hacking: uma relação que já existe no submundo digital

Enquanto pesquisadores exploram o uso defensivo da IA, cibercriminosos já vêm utilizando essas tecnologias há algum tempo. Modelos de linguagem e agentes autônomos estão sendo empregados para tornar malwares mais eficientes, automatizar ataques e escalar operações de espionagem.
Recentemente, a Anthropic revelou que um grupo de hackers chineses usou o Claude Code em uma campanha de espionagem em larga escala. O mais preocupante foi o papel do modelo: ele atuava como um agente completo, cobrindo praticamente todo o ciclo de ataque, e não apenas tarefas isoladas.
IA como aliada da segurança — e ameaça a uma profissão
Experimentos como o de Stanford mostram que a IA não precisa ser apenas uma arma nas mãos de criminosos. Ela também pode se tornar uma ferramenta poderosa para reforçar a segurança, identificar falhas rapidamente e permitir que sistemas sejam corrigidos antes de sofrer ataques reais.
Ao mesmo tempo, surge uma questão inevitável: qual será o futuro dos pentesters humanos? Se uma IA consegue realizar grande parte do trabalho por uma fração do custo, o papel desses profissionais tende a mudar — talvez migrando para tarefas mais estratégicas, de validação e interpretação.
Um alerta sobre o que vem pela frente
O caso do Artemis deixa claro que não estamos falando de uma AGI capaz de superar humanos em tudo. Mas, em nichos muito específicos, a inteligência artificial já demonstra vantagens difíceis de ignorar.
No mundo da cibersegurança, a pergunta já não é se a IA vai participar do jogo — mas quem estará no controle quando ela se tornar a principal jogadora.
[ Fonte: Xataka ]