Os agentes de IA — sistemas capazes de executar tarefas de forma autônoma, como reservar viagens ou fazer compras — estão deixando de ser um conceito experimental para se tornarem parte da próxima geração de produtos digitais. Mas, à medida que crescem em complexidade e autonomia, aumentam também as preocupações com segurança, privacidade e interoperabilidade. Para enfrentar esse cenário, gigantes da tecnologia anunciaram uma fundação inédita dedicada a padronizar esse ecossistema emergente.
Um novo organismo para organizar o caos dos agentes de IA
OpenAI, Anthropic e Block anunciaram a criação da Agentic AI Foundation (AAIF), uma organização sem fins lucrativos que trabalhará dentro da estrutura da Linux Foundation, instituição conhecida por supervisionar grandes projetos de código aberto — como o próprio sistema operacional Linux.
Além de fundar a iniciativa, as empresas doaram tecnologias essenciais para a construção desse novo ecossistema:
- OpenAI entregou o AGENTS.md, padrão universal que permite a agentes de código receberem instruções consistentes para qualquer projeto.
- Anthropic doou o Model Context Protocol (MCP), usado para conectar modelos de IA a ferramentas, dados e aplicativos.
- Block contribuiu com o Goose, estrutura de código aberto para desenvolvimento de agentes.
Segundo Jim Zemlin, diretor executivo da Linux Foundation, esses três padrões “se tornaram essenciais em apenas um ano”. Ao reunir tudo em um só espaço com governança aberta, a fundação busca garantir expansão transparente, estável e acessível à comunidade global de desenvolvedores.
Por que criar padrões agora? A corrida pelos agentes autônomos
Para além dos chatbots tradicionais, a indústria está migrando rapidamente para agentes que executam ações reais: comprar produtos, enviar e-mails, resolver burocracias, buscar documentos e navegar em sites. A promessa é que eles funcionem como assistentes que pensam e agem.
Mas essa evolução traz riscos. Sem normas claras, agentes criados por empresas diferentes podem operar de maneiras incompatíveis ou inseguras. A missão da AAIF é que esses sistemas funcionem:
- de forma transparente,
- com segurança reforçada,
- e com interoperabilidade real entre plataformas.
É uma tentativa de evitar que o futuro da IA se torne um conjunto caótico de sistemas isolados e vulneráveis.
Os riscos já identificados: privacidade, ações indevidas e ataques invisíveis
Embora ainda em fase inicial, os agentes de IA já demonstram vulnerabilidades preocupantes. Um relatório recente da Gartner recomendou que empresas bloqueiem temporariamente o uso de navegadores com “IA sidebar”, aqueles que leem páginas, resumem conteúdos e podem realizar transações online automaticamente.
As preocupações incluem:
Coleta excessiva de dados
Sidebars podem acessar histórico, abas abertas e conteúdo ativo — ampliando riscos de exposição de informações sigilosas.
Ameaças de prompt injection indireto
Esse tipo de ataque ocorre quando o agente lê um conteúdo malicioso que o induz a ignorar regras de segurança, podendo:
- realizar compras indevidas,
- enviar dados sensíveis,
- alterar configurações,
- ou executar ações financeiras não autorizadas.
Erros simples — porém caros
Agentes ainda cometem falhas básicas, como reservar o voo errado ou comprar quantidades incorretas de um item.
Para mitigar parte desses riscos, o Google apresentou nesta semana o User Alignment Critic, um modelo separado que analisa planos de um agente sem ser exposto a conteúdo de terceiros. A função é garantir que as ações estejam alinhadas aos objetivos do usuário.
Um futuro padronizado — e uma disputa antecipada
A nova fundação não está sozinha. Microsoft, AWS, Salesforce, Cloudflare e outras gigantes já aderiram como membros, indicando que a indústria vê urgência em organizar esse setor antes que ele se popularize.
Com os agentes de IA a caminho de se tornarem tão comuns quanto apps e assistentes virtuais, a AAIF surge para tentar garantir que esse avanço não ocorra às cegas — e que a autonomia dos agentes venha acompanhada de responsabilidade, regras claras e segurança reforçada.