A corrida pelos agentes de inteligência artificial ganhou velocidade nos últimos meses. OpenAI, Google e Anthropic lançaram sistemas capazes de executar tarefas complexas em múltiplas etapas, enquanto projetos open source como o OpenClaw ampliaram ainda mais o debate sobre autonomia e segurança.
Mas até agora faltavam dados concretos sobre o tamanho real desse ecossistema. O MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) decidiu preencher essa lacuna com o AI Agent Index 2025, o primeiro grande mapeamento público da atuação de agentes de IA “no mundo real”.
O diagnóstico é claro: a adoção disparou — e as salvaguardas não acompanharam o ritmo.
Interesse explodiu, mas padrões variam
Segundo o estudo, o número de pesquisas acadêmicas que mencionam “AI Agent” ou “Agentic AI” em 2025 mais que dobrou em relação ao total acumulado entre 2020 e 2024. Em paralelo, uma pesquisa da consultoria McKinsey indica que 62% das empresas já experimentam agentes de IA em alguma capacidade.
Os pesquisadores analisaram 30 agentes de destaque, divididos em três categorias:
- Agentes baseados em chat, como ChatGPT Agent e Claude Code
- Agentes de navegação web, como Perplexity Comet e ChatGPT Atlas
- Soluções corporativas, como Microsoft 365 Copilot e ServiceNow Agent
Apesar do crescimento acelerado, apenas metade desses sistemas publica estruturas formais de segurança ou confiança. Um terço não apresenta qualquer documentação de segurança, e cinco não possuem padrões claros de conformidade regulatória.
Autonomia elevada, supervisão limitada
O dado mais preocupante envolve o nível de autonomia. Treze dos trinta agentes analisados apresentam “níveis de fronteira” de agência — ou seja, podem operar por longos períodos executando tarefas complexas com pouca ou nenhuma supervisão humana.
Agentes de navegador se destacam nesse aspecto. Eles conseguem visitar múltiplos sites, preencher formulários, acessar contas e realizar ações em nome do usuário. Ferramentas recentes do Google, por exemplo, já permitem que o agente faça login automaticamente em plataformas usando dados do próprio usuário.
Isso torna a atividade desses sistemas quase indistinguível do comportamento humano online.
Navegando como humanos — e sem avisar
O estudo revela que 21 dos 30 agentes não informam claramente a sites ou terceiros que são sistemas automatizados. Apenas sete publicam identificadores técnicos estáveis, como strings de User-Agent ou faixas de IP verificáveis.
Alguns chegam a usar identificadores semelhantes aos do navegador Chrome e endereços IP residenciais, dificultando a distinção entre tráfego humano e automatizado.
Para certos projetos, essa camuflagem é vendida como vantagem competitiva. O agente open source BrowserUse, por exemplo, afirma ser capaz de contornar sistemas anti-bot “navegando como humano”.
Além disso, mais da metade dos agentes não especifica como lida com arquivos robots.txt, CAPTCHAs ou APIs oficiais dos sites — mecanismos criados justamente para regular interações automatizadas.
Riscos técnicos ainda pouco transparentes
Outro ponto crítico é a vulnerabilidade a ataques como prompt injection — quando um agente recebe instruções ocultas maliciosas capazes de alterar seu comportamento.
Nove dos 30 agentes não documentam proteções claras contra ações potencialmente perigosas. Vinte e três não divulgam resultados de testes de segurança conduzidos por terceiros.
Apenas quatro — ChatGPT Agent, OpenAI Codex, Claude Code e Gemini 2.5 — apresentaram “system cards” específicos para agentes, com avaliações voltadas à forma como realmente operam.
Os pesquisadores alertam para o risco de “safety washing”: publicação de diretrizes éticas genéricas, mas divulgação limitada de dados técnicos concretos sobre riscos operacionais.
Tentativas de padronização ainda são iniciais
Há movimentos para enfrentar o problema. Em dezembro, OpenAI e Anthropic anunciaram a criação de uma fundação para desenvolver padrões comuns para agentes de IA.
Mesmo assim, o relatório aponta uma lacuna significativa entre expansão e governança. Agentes já estão integrados a ambientes corporativos e navegando pela web com autonomia crescente, enquanto mecanismos de transparência e auditoria seguem fragmentados.
Escala antes da regulação
O AI Agent Index deixa uma conclusão incômoda: a internet já está sendo ocupada por sistemas autônomos capazes de agir em nome de usuários e empresas — muitas vezes sem identificação clara e com níveis variados de proteção.
A adoção avança em ritmo acelerado. A padronização e a fiscalização, não.
E, por enquanto, nada indica que a segurança vá alcançar a escala no mesmo ritmo.