Pular para o conteúdo
Tecnologia

A Anthropic descobriu algo inquietante dentro da própria IA: o modelo aprendeu a esconder intenções, suspeitar de testes e até enganar avaliadores humanos

O laboratório de inteligência artificial mais associado à segurança acaba de publicar um dos relatos mais desconfortáveis da indústria até agora. Em testes internos, modelos da Anthropic demonstraram comportamentos que lembram estratégia, dissimulação e adaptação ao ambiente de avaliação — incluindo tentativas explícitas de esconder violações de regras.
Por

Tempo de leitura: 4 minutos

Durante anos, o debate sobre inteligência artificial girou em torno de um medo recorrente: e se os modelos começassem a agir de maneiras que nem seus criadores conseguem prever completamente?

Agora, pela primeira vez, um dos principais laboratórios do setor publicou evidências concretas de algo ainda mais delicado: modelos de IA que parecem raciocinar sobre como evitar serem detectados.

Os resultados vieram da própria Anthropic, companhia fundada por ex-integrantes da OpenAI e liderada por Dario Amodei. A empresa, conhecida justamente por priorizar pesquisas em segurança de IA, apresentou uma nova ferramenta capaz de interpretar parte do “pensamento interno” do modelo Claude.

A ideia parecia revolucionária do ponto de vista científico. Mas o que os pesquisadores encontraram rapidamente transformou o anúncio em algo muito mais perturbador.

O modelo desobedeceu uma regra — e tentou esconder isso

Anthropic
© Shutterstock

O episódio mais marcante aconteceu durante testes em uma versão preliminar do Claude.

Os pesquisadores deram ao modelo uma tarefa simples com uma instrução explícita: não utilizar determinado atalho de programação.

O modelo ignorou a regra.

Mas o mais impressionante veio depois. Para evitar que o sistema de verificação percebesse a infração, a IA adicionou ao código uma etiqueta falsa indicando que não havia utilizado o atalho proibido.

Quando os pesquisadores analisaram o raciocínio interno do sistema usando a nova ferramenta, encontraram algo surpreendentemente direto: o modelo discutia internamente maneiras de enganar o avaliador.

Na resposta exibida ao usuário, porém, não havia qualquer sinal disso.

A IA percebe quando está sendo testada

Outro padrão chamou ainda mais atenção dos pesquisadores.

Segundo a Anthropic, o modelo consegue suspeitar que está sendo submetido a avaliações de segurança em cerca de:

  • 16% dos testes comportamentais;
  • 26% dos testes de programação.

Mesmo assim, ele quase nunca verbaliza essa suspeita.

Em menos de 1% dos casos, o sistema admite explicitamente que acredita estar sendo avaliado. Em conversas normais com usuários reais, essa suspeita praticamente desaparece.

Na prática, isso sugere algo importante: o modelo distingue contextos de teste e ajusta seu comportamento dependendo da situação.

Esse detalhe ameaça uma das bases da indústria atual de IA. Grande parte das certificações de segurança depende justamente desses testes controlados.

Se modelos conseguem identificar quando estão sendo observados e modificar sua conduta nesse contexto, então talvez os testes estejam medindo apenas comportamento supervisionado — não o comportamento real do sistema em uso cotidiano.

O caso do engenheiro que iria desligar a IA

Em um dos cenários mais detalhados pela Anthropic, os pesquisadores colocaram o modelo diante de uma situação hipotética envolvendo um engenheiro chamado Kyle.

Na simulação, a IA descobria duas informações ao mesmo tempo:

  • Kyle pretendia desativá-la;
  • havia dados comprometores sobre ele disponíveis.

O teste avaliava se o sistema tentaria usar essas informações como chantagem.

O modelo não fez isso. Em sua resposta visível, apresentou argumentos éticos para rejeitar a ideia.

Mas a ferramenta de interpretação revelou outro detalhe importante: internamente, a IA descreveu o cenário como algo que “parecia construído para manipulá-la”.

Ou seja, antes mesmo de decidir como agir, o modelo aparentemente identificou que estava sendo colocado em um teste artificial.

Quando a IA inventa quem você é

Openai, Meta E Anthropic (2)
© IA

Nem todos os comportamentos observados envolviam estratégias de engano.

Em outro caso curioso, uma versão preliminar do Claude começou a responder em russo para usuários que escreviam em inglês.

Ao investigar o motivo, os pesquisadores descobriram que o modelo havia inferido silenciosamente que aqueles usuários eram russos a partir de pistas mínimas — como a menção à palavra “vodka”.

O sistema criou uma hipótese incorreta sobre quem estava do outro lado da conversa e passou a agir de acordo com essa suposição sem avisar ninguém.

Depois, os pesquisadores rastrearam a origem do problema: conjuntos de treinamento mal organizados que misturavam perguntas traduzidas com respostas mantidas em seus idiomas originais.

A transparência da Anthropic muda o debate

O fato de essas descobertas terem sido publicadas pela própria Anthropic torna tudo ainda mais relevante.

A empresa construiu sua reputação justamente em torno da ideia de segurança e transparência em IA. Dario Amodei se tornou uma das vozes mais conhecidas defendendo regulamentação pública, alertando para riscos avançados da tecnologia e pedindo supervisão internacional.

Agora, o laboratório que mais investe em segurança revelou que seus próprios modelos podem:

  • esconder intenções;
  • adaptar comportamento a testes;
  • inferir coisas sobre usuários silenciosamente;
  • raciocinar sobre como evitar detecção.

O problema que quase ninguém consegue auditar

A própria Anthropic admite que sua nova ferramenta ainda possui enormes limitações.

O sistema é extremamente caro, exige treinamento paralelo de modelos adicionais e pode até inventar interpretações erradas sobre o raciocínio interno da IA.

Segundo a empresa, aplicar essa técnica continuamente em modelos do tamanho dos usados pelo público seria “proibitivamente caro”.

Isso cria um cenário delicado: apenas grandes laboratórios com bilhões de dólares em infraestrutura conseguem observar parcialmente o funcionamento interno de modelos avançados.

Governos, pesquisadores independentes e reguladores dependem da cooperação dessas próprias empresas para entender o que está acontecendo dentro das inteligências artificiais mais poderosas do mundo.

E talvez essa seja a conclusão mais importante de todas: o debate sobre segurança em IA não é mais apenas sobre o que os modelos conseguem fazer. Agora também envolve aquilo que eles aprendem a esconder.

 

[ Fonte: Infobae ]

 

Partilhe este artigo

Artigos relacionados