Pular para o conteúdo
Tecnologia

A nova aliança que quer padronizar os agentes de IA: OpenAI, Anthropic e Block criam fundação para unificar protocolos e proteger usuários

Em um movimento estratégico para organizar o futuro dos agentes de IA, OpenAI, Anthropic e Block fundaram uma nova instituição dedicada a criar padrões abertos, seguros e interoperáveis. A iniciativa, agora sob o guarda-chuva da Linux Foundation, busca evitar riscos crescentes desses sistemas — de injeções indiretas a erros automáticos — antes que eles se tornem comuns.
Por

Tempo de leitura: 3 minutos

Os agentes de IA — sistemas capazes de executar tarefas de forma autônoma, como reservar viagens ou fazer compras — estão deixando de ser um conceito experimental para se tornarem parte da próxima geração de produtos digitais. Mas, à medida que crescem em complexidade e autonomia, aumentam também as preocupações com segurança, privacidade e interoperabilidade. Para enfrentar esse cenário, gigantes da tecnologia anunciaram uma fundação inédita dedicada a padronizar esse ecossistema emergente.

Um novo organismo para organizar o caos dos agentes de IA

OpenAI, Anthropic e Block anunciaram a criação da Agentic AI Foundation (AAIF), uma organização sem fins lucrativos que trabalhará dentro da estrutura da Linux Foundation, instituição conhecida por supervisionar grandes projetos de código aberto — como o próprio sistema operacional Linux.

Além de fundar a iniciativa, as empresas doaram tecnologias essenciais para a construção desse novo ecossistema:

  • OpenAI entregou o AGENTS.md, padrão universal que permite a agentes de código receberem instruções consistentes para qualquer projeto.

  • Anthropic doou o Model Context Protocol (MCP), usado para conectar modelos de IA a ferramentas, dados e aplicativos.

  • Block contribuiu com o Goose, estrutura de código aberto para desenvolvimento de agentes.

Segundo Jim Zemlin, diretor executivo da Linux Foundation, esses três padrões “se tornaram essenciais em apenas um ano”. Ao reunir tudo em um só espaço com governança aberta, a fundação busca garantir expansão transparente, estável e acessível à comunidade global de desenvolvedores.

Por que criar padrões agora? A corrida pelos agentes autônomos

Para além dos chatbots tradicionais, a indústria está migrando rapidamente para agentes que executam ações reais: comprar produtos, enviar e-mails, resolver burocracias, buscar documentos e navegar em sites. A promessa é que eles funcionem como assistentes que pensam e agem.

Mas essa evolução traz riscos. Sem normas claras, agentes criados por empresas diferentes podem operar de maneiras incompatíveis ou inseguras. A missão da AAIF é que esses sistemas funcionem:

  • de forma transparente,

  • com segurança reforçada,

  • e com interoperabilidade real entre plataformas.

É uma tentativa de evitar que o futuro da IA se torne um conjunto caótico de sistemas isolados e vulneráveis.

Os riscos já identificados: privacidade, ações indevidas e ataques invisíveis

Embora ainda em fase inicial, os agentes de IA já demonstram vulnerabilidades preocupantes. Um relatório recente da Gartner recomendou que empresas bloqueiem temporariamente o uso de navegadores com “IA sidebar”, aqueles que leem páginas, resumem conteúdos e podem realizar transações online automaticamente.

As preocupações incluem:

Coleta excessiva de dados

Sidebars podem acessar histórico, abas abertas e conteúdo ativo — ampliando riscos de exposição de informações sigilosas.

Ameaças de prompt injection indireto

Esse tipo de ataque ocorre quando o agente lê um conteúdo malicioso que o induz a ignorar regras de segurança, podendo:

  • realizar compras indevidas,

  • enviar dados sensíveis,

  • alterar configurações,

  • ou executar ações financeiras não autorizadas.

Erros simples — porém caros

Agentes ainda cometem falhas básicas, como reservar o voo errado ou comprar quantidades incorretas de um item.

Para mitigar parte desses riscos, o Google apresentou nesta semana o User Alignment Critic, um modelo separado que analisa planos de um agente sem ser exposto a conteúdo de terceiros. A função é garantir que as ações estejam alinhadas aos objetivos do usuário.

Um futuro padronizado — e uma disputa antecipada

A nova fundação não está sozinha. Microsoft, AWS, Salesforce, Cloudflare e outras gigantes já aderiram como membros, indicando que a indústria vê urgência em organizar esse setor antes que ele se popularize.

Com os agentes de IA a caminho de se tornarem tão comuns quanto apps e assistentes virtuais, a AAIF surge para tentar garantir que esse avanço não ocorra às cegas — e que a autonomia dos agentes venha acompanhada de responsabilidade, regras claras e segurança reforçada.

 

Partilhe este artigo

Artigos relacionados