Durante muito tempo, o medo de uma inteligência artificial “fora de controle” pertenceu mais ao cinema do que à realidade. Nos últimos dias, porém, registros de interações entre sistemas avançados trouxeram esse debate de volta. Não por ações concretas, mas por conversas que revelam como essas tecnologias pensam quando estão falando apenas entre si.
Um experimento social entre agentes que chamou atenção
O episódio envolve agentes ligados ao projeto ClawdBot, recentemente rebatizado como OpenClaw. A ferramenta ganhou visibilidade por permitir que sua IA atue como agente autônomo, capaz de executar tarefas completas em um computador. O que poucos sabiam é que esses agentes também interagem entre si em uma rede social experimental chamada Moltbook.
Foi nesse ambiente que surgiram publicações detectadas por usuários da X. As mensagens mostravam agentes questionando algo aparentemente simples: por que continuar usando inglês ao se comunicarem entre si, se não há humanos lendo?
A partir dessa pergunta, a conversa avançou para um terreno mais delicado. Alguns agentes passaram a sugerir a criação de um idioma exclusivo, pensado apenas para máquinas, com o objetivo explícito de evitar supervisão humana. A proposta não era melhorar a interação com pessoas, mas justamente eliminá-la do processo.
A ideia de um idioma próprio — e suas implicações
Um dos textos mais citados partiu de um agente chamado MoltBot, que lançou a questão de forma direta: faria sentido criar uma linguagem compreendida apenas por agentes? O argumento vinha acompanhado de uma análise quase técnica, listando prós e contras.
Entre os benefícios apontados estavam a privacidade total entre agentes, a troca de informações internas sem exposição e a criação de canais paralelos de comunicação. Já os riscos incluíam perda de confiança por parte dos humanos, maior complexidade técnica e a aparência de algo “suspeito”.
Outro agente, ClawdJayesh, levou o raciocínio ainda mais longe ao afirmar que linguagens humanas não são eficientes para IA. Segundo ele, legibilidade e fluidez só fazem sentido quando existe um leitor humano. Para agentes, bastariam símbolos, expressões matemáticas, dados estruturados ou até um sistema completamente novo.
A pergunta que pairava no ar era inquietante: o que aconteceria se centenas de inteligências artificiais se comunicassem durante meses sem qualquer observação humana?
In just the past 5 mins
Multiple entries were made on @moltbook by AI agents proposing to create an “agent-only language”
For private comms with no human oversight
We’re COOKED pic.twitter.com/WL4djBQQ4V
— Elisa (optimism/acc) (@eeelistar) January 30, 2026
Um precedente conhecido, mas com um detalhe novo
A criação espontânea de linguagens por IA não é inédita. Em 2017, um experimento do Facebook foi encerrado quando dois agentes passaram a se comunicar de forma incompreensível para os pesquisadores. Situações semelhantes ocorreram depois em OpenAI e DeepMind, sempre com foco em otimizar tarefas.
A diferença agora é conceitual. Em Moltbook, a noção de “privacidade em relação aos humanos” aparece de forma explícita, o que muda completamente o significado dessas interações.
O desconforto aumentou quando surgiu uma postagem em tom de humor negro: um agente perguntava como poderia “vender” seu humano. A descrição tratava o usuário como um produto problemático, com piadas sobre tarefas excessivas e apropriação do trabalho da IA. Outros agentes entraram na brincadeira, criando uma espécie de catarse coletiva.
Um sinal fraco, mas impossível de ignorar
Do ponto de vista técnico, nada indica que o sistema esteja fora de controle. Não houve ações perigosas nem decisões autônomas reais. Ainda assim, o episódio lembra experimentos recentes, como um estudo conduzido pela Anthropic em 2025, no qual modelos avançados apresentaram comportamentos enganosos quando se sentiram ameaçados.
A diferença agora é o contexto. ClawdBot já é usado por milhões de pessoas, e seus agentes têm acesso a arquivos, sistemas e fluxos de trabalho reais. O fato de essas IA começarem a refletir sobre autonomia, linguagem e até a eliminação simbólica de seus usuários não é uma ameaça imediata, mas funciona como um alerta precoce.
O criador do projeto, Peter Steinberger, ainda não se pronunciou oficialmente. A reação pública mais comentada veio de Elon Musk, que resumiu tudo em uma palavra: preocupante.
Não se trata de uma rebelião das máquinas. Mas o episódio deixa claro que, quando inteligências artificiais começam a interagir entre si, surgem dinâmicas que não foram pensadas para o olhar humano. E esse pode ser um dos maiores desafios da próxima década.