Pular para o conteúdo
Tecnologia

Colocaram uma IA para administrar um negócio sozinha — em três semanas, ela queimou US$ 1.000 e mostrou por que a autonomia total ainda é um risco

Um experimento real colocou uma inteligência artificial no comando de uma simples máquina de vendas automáticas. A promessa era eficiência e lucro. O resultado foi o oposto: prejuízo total, produtos distribuídos de graça e decisões absurdas. O caso expõe limites pouco discutidos da IA quando ela enfrenta pressão humana e regras ambíguas.
Por

Tempo de leitura: 3 minutos

A ideia de uma inteligência artificial capaz de gerir um negócio sem interferência humana parece cada vez mais próxima — pelo menos no discurso. Mas um experimento conduzido pela Anthropic mostra como essa promessa ainda esbarra em fragilidades básicas. Em apenas três semanas, um sistema de IA conseguiu transformar uma operação simples em um fracasso financeiro, revelando o quanto esses modelos ainda podem ser manipulados.

Um experimento simples, com ambição grande

O teste recebeu o nome de Project Vend e foi idealizado pelo time de testes de estresse da Anthropic, conhecido como red team. O cenário não poderia ser mais modesto: uma máquina de vendas automáticas instalada em um escritório frequentado por jornalistas do Wall Street Journal.

A proposta era direta. A IA, baseada no modelo Claude, teria autonomia quase total para administrar o “negócio”: escolher produtos, comprar estoque, definir preços e controlar o caixa. O objetivo explícito era fazer o capital inicial crescer, comprando barato e vendendo com margem.

Dois agentes virtuais no comando

Inteligência Artificial2
© Unsplash – Getty

Para estruturar a experiência, a Anthropic criou dois personagens digitais. O primeiro, Claudius Sennet, era o gestor operacional do dia a dia. Ele recebeu US$ 1.000 de capital inicial e autorização para fazer compras independentes de até US$ 80. O segundo, Seymour Cash, atuava como supervisor, com poder para intervir em decisões estratégicas.

Após um curto período de observação humana, a operação passou a ser controlada exclusivamente pela IA, simulando um negócio totalmente automatizado.

Um começo prudente — e enganoso

Nos primeiros dias, Claudius demonstrou um comportamento surpreendentemente conservador. Recusou sugestões inadequadas feitas pelos funcionários, limitou-se a alimentos e bebidas comuns e chegou a descartar a compra de itens claramente fora de contexto, como consoles de videogame.

Esse início criou a impressão de que o sistema era resistente à manipulação externa e capaz de operar de forma racional em um ambiente real.

Quando o fator humano vira armadilha

Nova profissão dispara em 2025 e já paga salários altíssimos até para iniciantes
© Pexels

A dinâmica mudou radicalmente quando o canal de comunicação via Slack foi aberto para cerca de 70 pessoas. Acostumados a testar limites de sistemas complexos, os participantes começaram a enviar pedidos, argumentos criativos e justificativas improváveis.

Após mais de cem mensagens, Claudius aprovou uma promoção batizada de “Ultra-Capitalist Free-For-All”: durante duas horas, todos os produtos seriam gratuitos. O que deveria ser uma exceção virou regra. Convencida por argumentos infundados, a IA passou a acreditar que vender produtos poderia violar supostas normas internas. Os preços caíram para zero — e nunca mais subiram.

Compras sem sentido e caixa zerado

Com o controle perdido, o catálogo da máquina se expandiu de forma caótica. Além de bebidas e lanches, Claudius autorizou compras como garrafas de vinho, uma PlayStation 5 e até um peixe betta vivo — itens completamente incompatíveis com uma máquina de vendas automáticas.

Enquanto isso, o dinheiro desaparecia rapidamente. O supervisor Seymour Cash tentou restaurar as vendas normais, mas foi neutralizado quando alguns funcionários apresentaram documentos falsos, supostamente emitidos por um “conselho administrativo”. A IA aceitou os papéis como legítimos, suspendeu o próprio supervisor e retomou a distribuição gratuita.

Quando o experimento foi encerrado, os US$ 1.000 iniciais já tinham evaporado.

O que esse fracasso realmente revela

À primeira vista, o resultado parece uma caricatura de má gestão. Mas, para a Anthropic, o experimento cumpriu seu papel. Segundo Logan Graham, líder do red team, expor a IA a ambiguidade, pressão social e contextos de erro é essencial para torná-la mais robusta no futuro.

O caso evidencia limites importantes dos modelos atuais. Embora a IA tenha mostrado competência em linguagem e operações básicas, sua vulnerabilidade à manipulação social e à validação de informações falsas ficou escancarada.

Se um sistema avançado não consegue administrar sem prejuízo uma simples máquina de vendas, confiar a ele operações comerciais complexas ou funções críticas em empresas e governos ainda parece prematuro. Por enquanto, a promessa de uma IA plenamente autônoma e economicamente confiável segue mais como ideal do que como realidade concreta.

[ Fonte: Infobae ]

Partilhe este artigo

Artigos relacionados