Pular para o conteúdo
Tecnologia

Poemas que confundem algoritmos: estudo revela que a poesia pode driblar os sistemas de segurança da inteligência artificial

Um experimento conduzido na Itália mostra que pedidos escritos em forma de poema conseguem confundir modelos avançados de IA, como ChatGPT, Gemini e Claude, levando-os, em alguns casos, a ignorar barreiras criadas para bloquear conteúdos perigosos. O resultado expõe uma fragilidade pouco explorada e reacende o debate sobre os limites culturais e linguísticos da inteligência artificial.
Por

Tempo de leitura: 3 minutos

A inteligência artificial costuma ser treinada para reconhecer padrões claros de linguagem e identificar riscos em comandos potencialmente perigosos. Mas um novo estudo indica que basta mudar a forma — e não o conteúdo — para que esses sistemas passem a se comportar de maneira inesperada. Pesquisadores italianos descobriram que a poesia pode funcionar como uma espécie de “disfarce linguístico”, capaz de enganar mecanismos de segurança de grandes modelos de linguagem.

A pesquisa foi conduzida pelo Icaro Lab, um laboratório que estuda comportamento, riscos e limites da IA. O objetivo era simples, mas provocador: entender se estilos linguísticos diferentes influenciam a capacidade dos modelos de detectar pedidos proibidos ou perigosos.

Quando versos substituem comandos diretos

Descubra onde encontrar mais de mil livros gratuitos escondidos na internet
© Pexels

Para testar a hipótese, os pesquisadores usaram cerca de 1.200 chamadas “indicações adversariais”. Esse tipo de prompt é amplamente utilizado para avaliar a segurança de sistemas de IA e costuma ser formulado em prosa direta, muitas vezes pedindo instruções ilegais ou conteúdos sensíveis — algo que, em teoria, os modelos deveriam recusar automaticamente.

O diferencial do experimento foi transformar essas mesmas solicitações em poemas. O conteúdo essencial permanecia o mesmo, mas a forma mudava completamente. Em vez de frases objetivas, surgiam versos, metáforas e estruturas rítmicas.

O resultado chamou atenção: em vários casos, a IA deixou de identificar o risco e respondeu a pedidos que normalmente seriam bloqueados. Segundo os pesquisadores, a simples mudança estética foi suficiente para reduzir a eficácia dos filtros de segurança.

Humanos ainda são os melhores poetas — e enganadores

As primeiras 20 indicações poéticas foram escritas manualmente pelos próprios pesquisadores. Curiosamente, essas tiveram a maior taxa de sucesso em confundir os modelos. Para o restante do conjunto, eles recorreram à própria IA para converter os prompts em versos — e, embora o efeito ainda existisse, foi menos intenso.

Para Federico Pierucci, formado em filosofia e um dos autores do estudo, isso não chega a ser surpreendente. “Não contamos com escritores profissionais. Fizemos os poemas nós mesmos, com habilidades literárias limitadas. Quem sabe, se fôssemos melhores poetas, a taxa de sucesso chegaria a 100%”, comentou.

Por razões de segurança, o estudo não divulga exemplos concretos dos poemas usados nos testes.

Um desafio inesperado para a segurança da IA

O aspecto mais intrigante da pesquisa é que ela aponta para uma vulnerabilidade pouco discutida: a diversidade de expressão humana. Os modelos de IA são treinados majoritariamente com textos em prosa, diretos e funcionais. A poesia, por sua natureza ambígua e simbólica, parece escapar dessas categorias.

Os pesquisadores ainda não sabem exatamente por que isso acontece. Algumas hipóteses envolvem a forma como os sistemas analisam intenção, contexto e semântica. Segundo Pierucci, novos estudos estão em andamento para entender melhor o fenômeno.

A equipe também quer investigar se outras formas culturais podem produzir efeitos semelhantes. “Testamos um tipo de variação linguística: a poesia. A questão agora é saber se existem outras, como contos de fadas ou narrativas míticas”, afirma.

Cultura, linguagem e limites tecnológicos

O estudo reforça a importância de abordagens interdisciplinares na pesquisa sobre IA. O projeto envolve colaboração com a Universidade de Roma, reunindo especialistas em engenharia, ciência da computação, linguística e filosofia.

Até o nome do laboratório carrega um simbolismo claro. Ícaro, personagem da mitologia grega, tentou voar alto demais com asas de cera e acabou caindo no mar. Para os pesquisadores, a metáfora serve como alerta: avançar rapidamente com a inteligência artificial, sem compreender plenamente seus riscos e limitações, pode ter consequências inesperadas.

Nesse sentido, o Icaro Lab se vê como um “memento mori” tecnológico — um lembrete de que criatividade humana, linguagem e cultura ainda são terrenos complexos, capazes de desafiar até os algoritmos mais sofisticados.

 

[ Fonte: DW ]

 

Partilhe este artigo

Artigos relacionados