A inteligência artificial costuma ser treinada para reconhecer padrões claros de linguagem e identificar riscos em comandos potencialmente perigosos. Mas um novo estudo indica que basta mudar a forma — e não o conteúdo — para que esses sistemas passem a se comportar de maneira inesperada. Pesquisadores italianos descobriram que a poesia pode funcionar como uma espécie de “disfarce linguístico”, capaz de enganar mecanismos de segurança de grandes modelos de linguagem.
A pesquisa foi conduzida pelo Icaro Lab, um laboratório que estuda comportamento, riscos e limites da IA. O objetivo era simples, mas provocador: entender se estilos linguísticos diferentes influenciam a capacidade dos modelos de detectar pedidos proibidos ou perigosos.
Quando versos substituem comandos diretos

Para testar a hipótese, os pesquisadores usaram cerca de 1.200 chamadas “indicações adversariais”. Esse tipo de prompt é amplamente utilizado para avaliar a segurança de sistemas de IA e costuma ser formulado em prosa direta, muitas vezes pedindo instruções ilegais ou conteúdos sensíveis — algo que, em teoria, os modelos deveriam recusar automaticamente.
O diferencial do experimento foi transformar essas mesmas solicitações em poemas. O conteúdo essencial permanecia o mesmo, mas a forma mudava completamente. Em vez de frases objetivas, surgiam versos, metáforas e estruturas rítmicas.
O resultado chamou atenção: em vários casos, a IA deixou de identificar o risco e respondeu a pedidos que normalmente seriam bloqueados. Segundo os pesquisadores, a simples mudança estética foi suficiente para reduzir a eficácia dos filtros de segurança.
Humanos ainda são os melhores poetas — e enganadores
As primeiras 20 indicações poéticas foram escritas manualmente pelos próprios pesquisadores. Curiosamente, essas tiveram a maior taxa de sucesso em confundir os modelos. Para o restante do conjunto, eles recorreram à própria IA para converter os prompts em versos — e, embora o efeito ainda existisse, foi menos intenso.
Para Federico Pierucci, formado em filosofia e um dos autores do estudo, isso não chega a ser surpreendente. “Não contamos com escritores profissionais. Fizemos os poemas nós mesmos, com habilidades literárias limitadas. Quem sabe, se fôssemos melhores poetas, a taxa de sucesso chegaria a 100%”, comentou.
Por razões de segurança, o estudo não divulga exemplos concretos dos poemas usados nos testes.
Um desafio inesperado para a segurança da IA
O aspecto mais intrigante da pesquisa é que ela aponta para uma vulnerabilidade pouco discutida: a diversidade de expressão humana. Os modelos de IA são treinados majoritariamente com textos em prosa, diretos e funcionais. A poesia, por sua natureza ambígua e simbólica, parece escapar dessas categorias.
Os pesquisadores ainda não sabem exatamente por que isso acontece. Algumas hipóteses envolvem a forma como os sistemas analisam intenção, contexto e semântica. Segundo Pierucci, novos estudos estão em andamento para entender melhor o fenômeno.
A equipe também quer investigar se outras formas culturais podem produzir efeitos semelhantes. “Testamos um tipo de variação linguística: a poesia. A questão agora é saber se existem outras, como contos de fadas ou narrativas míticas”, afirma.
Cultura, linguagem e limites tecnológicos
O estudo reforça a importância de abordagens interdisciplinares na pesquisa sobre IA. O projeto envolve colaboração com a Universidade de Roma, reunindo especialistas em engenharia, ciência da computação, linguística e filosofia.
Até o nome do laboratório carrega um simbolismo claro. Ícaro, personagem da mitologia grega, tentou voar alto demais com asas de cera e acabou caindo no mar. Para os pesquisadores, a metáfora serve como alerta: avançar rapidamente com a inteligência artificial, sem compreender plenamente seus riscos e limitações, pode ter consequências inesperadas.
Nesse sentido, o Icaro Lab se vê como um “memento mori” tecnológico — um lembrete de que criatividade humana, linguagem e cultura ainda são terrenos complexos, capazes de desafiar até os algoritmos mais sofisticados.
[ Fonte: DW ]