Pular para o conteúdo
Tecnologia

Estudo do MIT revela que agentes de IA já operam com alta autonomia na internet — e quase sem regras claras

Levantamento inédito do MIT CSAIL mostra que empresas estão implantando agentes de IA em larga escala, mas metade deles não publica padrões de segurança adequados. Muitos navegam como humanos, ocultam sua identidade e operam com autonomia avançada. A escala cresce mais rápido que os mecanismos de controle.
Por

Tempo de leitura: 3 minutos

A corrida pelos agentes de inteligência artificial ganhou velocidade nos últimos meses. OpenAI, Google e Anthropic lançaram sistemas capazes de executar tarefas complexas em múltiplas etapas, enquanto projetos open source como o OpenClaw ampliaram ainda mais o debate sobre autonomia e segurança.

Mas até agora faltavam dados concretos sobre o tamanho real desse ecossistema. O MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) decidiu preencher essa lacuna com o AI Agent Index 2025, o primeiro grande mapeamento público da atuação de agentes de IA “no mundo real”.

O diagnóstico é claro: a adoção disparou — e as salvaguardas não acompanharam o ritmo.

Interesse explodiu, mas padrões variam

Segundo o estudo, o número de pesquisas acadêmicas que mencionam “AI Agent” ou “Agentic AI” em 2025 mais que dobrou em relação ao total acumulado entre 2020 e 2024. Em paralelo, uma pesquisa da consultoria McKinsey indica que 62% das empresas já experimentam agentes de IA em alguma capacidade.

Os pesquisadores analisaram 30 agentes de destaque, divididos em três categorias:

  • Agentes baseados em chat, como ChatGPT Agent e Claude Code

  • Agentes de navegação web, como Perplexity Comet e ChatGPT Atlas

  • Soluções corporativas, como Microsoft 365 Copilot e ServiceNow Agent

Apesar do crescimento acelerado, apenas metade desses sistemas publica estruturas formais de segurança ou confiança. Um terço não apresenta qualquer documentação de segurança, e cinco não possuem padrões claros de conformidade regulatória.

Autonomia elevada, supervisão limitada

O dado mais preocupante envolve o nível de autonomia. Treze dos trinta agentes analisados apresentam “níveis de fronteira” de agência — ou seja, podem operar por longos períodos executando tarefas complexas com pouca ou nenhuma supervisão humana.

Agentes de navegador se destacam nesse aspecto. Eles conseguem visitar múltiplos sites, preencher formulários, acessar contas e realizar ações em nome do usuário. Ferramentas recentes do Google, por exemplo, já permitem que o agente faça login automaticamente em plataformas usando dados do próprio usuário.

Isso torna a atividade desses sistemas quase indistinguível do comportamento humano online.

Navegando como humanos — e sem avisar

O estudo revela que 21 dos 30 agentes não informam claramente a sites ou terceiros que são sistemas automatizados. Apenas sete publicam identificadores técnicos estáveis, como strings de User-Agent ou faixas de IP verificáveis.

Alguns chegam a usar identificadores semelhantes aos do navegador Chrome e endereços IP residenciais, dificultando a distinção entre tráfego humano e automatizado.

Para certos projetos, essa camuflagem é vendida como vantagem competitiva. O agente open source BrowserUse, por exemplo, afirma ser capaz de contornar sistemas anti-bot “navegando como humano”.

Além disso, mais da metade dos agentes não especifica como lida com arquivos robots.txt, CAPTCHAs ou APIs oficiais dos sites — mecanismos criados justamente para regular interações automatizadas.

Riscos técnicos ainda pouco transparentes

Outro ponto crítico é a vulnerabilidade a ataques como prompt injection — quando um agente recebe instruções ocultas maliciosas capazes de alterar seu comportamento.

Nove dos 30 agentes não documentam proteções claras contra ações potencialmente perigosas. Vinte e três não divulgam resultados de testes de segurança conduzidos por terceiros.

Apenas quatro — ChatGPT Agent, OpenAI Codex, Claude Code e Gemini 2.5 — apresentaram “system cards” específicos para agentes, com avaliações voltadas à forma como realmente operam.

Os pesquisadores alertam para o risco de “safety washing”: publicação de diretrizes éticas genéricas, mas divulgação limitada de dados técnicos concretos sobre riscos operacionais.

Tentativas de padronização ainda são iniciais

Há movimentos para enfrentar o problema. Em dezembro, OpenAI e Anthropic anunciaram a criação de uma fundação para desenvolver padrões comuns para agentes de IA.

Mesmo assim, o relatório aponta uma lacuna significativa entre expansão e governança. Agentes já estão integrados a ambientes corporativos e navegando pela web com autonomia crescente, enquanto mecanismos de transparência e auditoria seguem fragmentados.

Escala antes da regulação

O AI Agent Index deixa uma conclusão incômoda: a internet já está sendo ocupada por sistemas autônomos capazes de agir em nome de usuários e empresas — muitas vezes sem identificação clara e com níveis variados de proteção.

A adoção avança em ritmo acelerado. A padronização e a fiscalização, não.

E, por enquanto, nada indica que a segurança vá alcançar a escala no mesmo ritmo.

 

Partilhe este artigo

Artigos relacionados