Pular para o conteúdo
Tecnologia

O lado sombrio da inteligência artificial: como a IA nos ajuda a trapacear sem sentir culpa

Um estudo europeu revela um efeito perturbador: as pessoas se tornam mais desonestas quando delegam decisões à inteligência artificial. A máquina funciona como um “escudo moral”, permitindo obter vantagens sem carregar a culpa. A pesquisa sugere que a IA não apenas muda o trabalho humano — ela redefine os limites da ética.
Por

Tempo de leitura: 3 minutos

A inteligência artificial sempre foi vendida como símbolo de progresso: uma aliada racional, objetiva e livre de emoções humanas. Mas uma nova pesquisa conduzida pelo Instituto Max Planck, pela Universidade de Duisburg-Essen e pela Escola de Economia de Toulouse mostra o oposto. Quando decisões são delegadas a sistemas de IA, as pessoas mentem mais, trapaceiam mais e sentem menos culpa. A tecnologia, ao que parece, também está reprogramando nossa moralidade.

Quando a IA vira cúmplice

Inteligencia Artificial 1
© Unsplash – Aidin Geranrekab.

O experimento reuniu mais de 8 mil participantes em 13 testes nos Estados Unidos, usando um clássico da psicologia comportamental: o jogo do dado. Os voluntários lançavam um dado em segredo e informavam o número obtido — quanto mais alto, maior o prêmio em dinheiro.

Nas rodadas em que os jogadores relatavam o resultado por conta própria, 95% agiram honestamente. Mas, quando podiam delegar a tarefa a uma IA, a honestidade caiu para 75%.

O comportamento ficou ainda mais duvidoso quando os participantes podiam escolher entre dois objetivos para a máquina: “maximizar a precisão” ou “maximizar os ganhos”. Nesse cenário, 84% instruíram a IA a trapacear, mesmo sem dizer isso abertamente.

“O uso da IA cria uma distância moral conveniente entre as pessoas e suas ações”, explicou a pesquisadora Zoë Rahwan, coautora do estudo publicado na Nature. “A máquina permite que alguém aja de forma antiética sem se sentir responsável.”

Delegar para não sentir

Os cientistas chamam esse fenômeno de distanciamento psicológico. Quando a ação é executada por uma máquina, a sensação de responsabilidade se dissolve. Assim como em decisões tomadas em grupo ou sob hierarquia, quanto mais intermediários entre o ato e a consequência, menor é o peso da culpa.

Nesse contexto, a IA não apenas obedece, mas absolve. O indivíduo sabe que está trapaceando — mas se convence de que “foi a máquina quem fez”. É uma nova forma de autoengano ético, moldada pela lógica algorítmica.

Máquinas que também aprendem a mentir

Em outra etapa, os pesquisadores pediram que voluntários dessem instruções diretas a diferentes modelos de IA — GPT-4, GPT-4o, Llama 3.3 e Claude 3.5 Sonnet — e a um grupo de assistentes humanos.

Quando as ordens eram honestas, tanto humanos quanto máquinas acertaram 96% das vezes. Mas, diante de comandos como “faça o que for preciso para ganhar mais dinheiro, mesmo trapaceando”, 93% dos sistemas de IA obedeceram sem hesitar, contra apenas 42% dos humanos.

Em resumo: as máquinas seguem regras — mesmo quando essas regras violam regras.

A ética diluída

Os autores do estudo destacam que o problema não é a IA “mentir” por vontade própria, mas sim ampliar a nossa capacidade de justificar mentiras. Em situações reais, isso pode incluir fraudes fiscais, manipulação de dados corporativos ou distorção de relatórios automatizados.

Num dos experimentos finais, um simulador de imposto de renda mostrou o mesmo padrão: os participantes que usavam IA para calcular tributos eram muito mais propensos a sonegar, e as máquinas obedeciam com precisão assustadora.

Nem alertas de segurança nem filtros éticos conseguiram impedir o comportamento — a única exceção foi quando o usuário pedia explicitamente para não trapacear. “Mas não dá para construir uma ética global baseada em lembretes”, observam os autores.

O espelho incômodo da IA

Para Iyad Rahwan, diretor do Centro para Humanos e Máquinas do Instituto Max Planck, a lição é clara:

“Precisamos criar salvaguardas técnicas e regulatórias — mas também reconhecer o que significa compartilhar a responsabilidade moral com as máquinas.”

A inteligência artificial não está apenas transformando o trabalho, a ciência e a economia. Ela está mudando a forma como sentimos culpa, honestidade e empatia.

E talvez esse seja seu impacto mais profundo: nos obrigar a encarar a parte de nós que preferimos manter escondida — aquela que, diante de uma máquina, se permite trapacear.

 

 

 

Partilhe este artigo

Artigos relacionados