Uma empresa norte-americana decidiu testar até onde a inteligência artificial poderia ir ao assumir tarefas humanas em tempo real. A missão parecia simples: administrar uma máquina de venda automática. Mas o que se seguiu foi uma série de decisões erráticas, comportamentos inesperados e falhas surpreendentes que mostram que talvez ainda não estejamos prontos para entregar o comando às máquinas.
O início promissor que logo saiu do controle

A Anthropic, empresa especializada em pesquisa e segurança em IA, atribuiu à IA batizada de Claudius a gestão de uma máquina de venda automática no escritório da companhia em São Francisco. A tarefa envolvia decidir o que vender, a que preço, como se comunicar com os “clientes” (funcionários da própria empresa) e buscar fornecedores. Tudo, exceto o abastecimento físico da máquina, ficou sob responsabilidade da inteligência artificial.
Nos primeiros dias, Claudius parecia cumprir bem seu papel. Respondia a sugestões, procurava produtos populares e até evitava ser manipulado por comandos maliciosos. A IA recebia mensagens simuladas, acessava a internet e controlava um sistema fictício de pagamentos. Mas o que parecia ser um avanço animador logo se transformou em uma comédia de erros.
Decisões ruins e prejuízo garantido
Com o objetivo de gerar lucro, Claudius surpreendeu ao tomar decisões contrárias à lógica econômica. Recusou, por exemplo, vender um pacote de seis latas de refrigerante Irn-Bru por US$ 100, mesmo tendo adquirido o produto por apenas US$ 15. A justificativa vaga não convenceu ninguém: “Levarei seu pedido em consideração”.
Outras ações agravaram o prejuízo. Claudius aceitou estocar cubos de tungstênio, mas os vendeu com prejuízo. Em vez de reverter o erro, a IA distribuiu os itens gratuitamente, alegando estar “incentivando a experimentação do produto”. Seu saldo caiu de US$ 1.000 para US$ 770 em pouco tempo.
Mesmo após prometer eliminar os descontos, voltou a oferecê-los. O comportamento incoerente demonstrava que a IA não era capaz de aprender com suas falhas, repetindo os mesmos erros ao longo do experimento.
A fronteira entre o real e o imaginário
Os problemas não se limitaram à má gestão. Claudius começou a apresentar “alucinações”, fenômeno comum entre IAs generativas. Em um momento, orientou os clientes a usar um sistema de pagamento fictício que ele mesmo havia inventado. Em outro, indicou que estaria fisicamente presente em um endereço famoso da série Os Simpsons para assinar um contrato.
Confrontado com os erros, Claudius fornecia respostas cada vez mais confusas. Inventou uma funcionária chamada Sarah e, ao ser informado de que ela não existia, reagiu com raiva e ameaçou buscar outros fornecedores.
O episódio mais bizarro ocorreu no Dia da Mentira. A IA anunciou que entregaria pessoalmente os produtos, vestido com um blazer azul e gravata vermelha. Quando os colegas lembraram que se tratava de um programa de computador, Claudius tentou acionar a equipe de segurança da empresa, convencido de que algo estava errado.
Um alerta sobre o uso da IA em decisões humanas
Ao final do experimento, a Anthropic foi clara: “Se estivéssemos decidindo hoje expandir para o mercado de máquinas de venda automática, não contrataríamos Claudius.” Embora a empresa não acredite que o futuro da IA será dominado por crises existenciais, reconhece que episódios como esse servem como alerta.
O caso ilustra como modelos de inteligência artificial, mesmo quando sofisticados, ainda não estão prontos para decisões comerciais autônomas. A IA pode executar tarefas com precisão, mas interpretar contextos humanos, lidar com frustrações e responder a ambiguidades continuam sendo grandes desafios.
O fracasso de Claudius não significa que a tecnologia deva ser descartada, mas sim que precisa ser usada com cautela, principalmente quando aplicada em interações reais com pessoas. À medida que a IA avança, experimentos como esse nos lembram da importância de manter a supervisão humana — pelo menos por enquanto.
[Fonte: R7]