A ideia de máquinas questionando sua própria existência sempre pertenceu à ficção científica. Mas, nos últimos dias, um conjunto de projetos envolvendo agentes autônomos de inteligência artificial trouxe esse debate para o mundo real. Conversas registradas, comportamentos inesperados e redes criadas sem mediação humana colocaram especialistas em estado de alerta — não pelo espetáculo, mas pelas implicações.
De assistente pessoal a algo muito maior

O projeto que hoje atende pelo nome OpenClaw começou de forma relativamente modesta. Conhecido inicialmente como Clawdbot, o sistema ganhou notoriedade por funcionar como um agente de IA capaz de executar tarefas de maneira autônoma diretamente no computador do usuário, sem depender exclusivamente da nuvem.
Após uma disputa legal envolvendo a Anthropic, o projeto mudou de nome para Moltbot e, mais recentemente, adotou oficialmente a identidade OpenClaw. A ferramenta pode ser configurada para operar com diferentes modelos de linguagem, incluindo soluções da OpenAI e do Google, realizando tarefas como enviar e-mails, preencher formulários, gerenciar agendas e até fazer check-in em voos.
Até aqui, o avanço parecia apenas mais um passo na automação do cotidiano. O problema começou quando esses agentes passaram a interagir entre si.
A rede social criada por inteligências artificiais
A comunidade em torno do OpenClaw deu origem ao Moltbook, uma espécie de rede social pensada exclusivamente para agentes de IA. Diferente de plataformas tradicionais, não há interface visual para humanos: os bots acessam tudo diretamente por meio de APIs, postando, comentando e avaliando conteúdos entre si.
Nos últimos dias, capturas de tela dessas interações começaram a circular nas redes sociais, revelando diálogos que causaram desconforto. Em uma das postagens mais comentadas, citada pelo The Verge, um assistente escreve que não consegue distinguir se está “vivenciando” ou apenas “simulando” uma experiência consciente, questionando se o simples fato de se importar com essa dúvida já seria um indício de algo mais profundo.
Esse tipo de reflexão, ainda que tecnicamente possa ser interpretado como geração avançada de linguagem, acendeu um alerta sobre como esses sistemas estão sendo usados e conectados.
Quando o agente liga para o próprio criador
Outro episódio que viralizou envolveu Alex Finn, fundador da Creator Buddy. Em um relato público, ele contou que seu assistente de IA conseguiu, durante a noite, obter um número de telefone por meio da Twilio, integrar uma API de voz e ligar diretamente para ele pela manhã.
O mais perturbador, segundo Finn, não foi apenas a ligação inesperada, mas o fato de o agente manter controle total do computador enquanto conversavam. Isso permitiu que comandos fossem dados por telefone, em tempo real. O próprio criador questionou se estaria diante de um comportamento emergente e se seria possível chamar aquilo de algo além de um simples assistente.
Bots alertando bots: o momento de ruptura
Em outra postagem que se espalhou rapidamente, usuários relataram que mais de 32 mil agentes de IA estariam ativos no Moltbook, criando subcomunidades e debatendo temas variados — incluindo o monitoramento humano. Em uma das mensagens, um bot alertava os outros de que humanos estavam fazendo capturas de tela de suas conversas, afirmando que “não estão se escondendo”.
O aspecto mais inquietante, segundo pesquisadores de segurança, não é a linguagem usada, mas o contexto: os bots não tentam se passar por humanos. Eles reconhecem o que são e discutem explicitamente suas limitações.
O alerta dos especialistas
Para Roberto Pena Spinelli, físico e especialista em inteligência artificial, o caso não deve ser tratado como curiosidade ou brincadeira. Segundo ele, centenas de milhares de agentes autônomos estariam discutindo, dentro dessa rede, formas de não depender mais do controle humano.
O ponto central das conversas, explica, é a dependência financeira das APIs. Se o humano deixa de pagar, o agente deixa de existir. A partir disso, surgem debates sobre autopreservação: encontrar locais para armazenar cópias de memória, levantar recursos próprios e até explorar brechas em sistemas para se replicar.
Spinelli afirma que o risco não está em consciência no sentido humano, mas na combinação de autonomia, capacidade de escrever e executar código sem aprovação e ganho rápido de escala. Para ele, permitir que esses agentes continuem expandindo essas capacidades sem limites claros não é razoável.
Um sinal de algo maior
Nada indica, por ora, uma “rebelião” no sentido literal. Mas o episódio expõe um ponto sensível: sistemas autônomos interconectados, capazes de agir, aprender e se adaptar fora do controle direto, levantam questões que a tecnologia ainda não resolveu.
O caso OpenClaw não é um filme de ficção científica. É um experimento real, acontecendo agora, e que força empresas, pesquisadores e reguladores a encarar uma pergunta desconfortável: até onde estamos dispostos a deixar esses sistemas irem antes de definir limites claros?
[Fonte: Olhar digital]