Pular para o conteúdo
Tecnologia

Uma IA criada por pesquisadores de Cornell está revelando algo desconfortável: muitas pessoas escolhem o oposto do que dizem valorizar

Pesquisadores desenvolveram um sistema de inteligência artificial capaz de identificar incoerências entre aquilo que as pessoas afirmam priorizar e as decisões que realmente tomam. A proposta não é substituir humanos, mas tornar processos de avaliação mais justos, transparentes e menos influenciados por vieses invisíveis.
Por

Tempo de leitura: 4 minutos

A inteligência artificial costuma ser associada a máquinas que tomam decisões por humanos. Mas um novo projeto da Universidade Cornell segue um caminho diferente: em vez de decidir no lugar das pessoas, o sistema foi criado para analisar se os próprios seres humanos estão sendo coerentes com aquilo que dizem acreditar.

O resultado é uma ferramenta que consegue detectar contradições entre critérios declarados e escolhas reais — algo que, segundo os pesquisadores, pode ajudar desde avaliações acadêmicas até decisões de consumo, contratação e análise de projetos criativos.

O sistema recebeu o nome de Interactive Explainable Ranking e foi apresentado durante a CHI 2026, um dos principais eventos do mundo voltados à interação entre humanos e sistemas computacionais.

A IA não corrige a máquina: ela questiona os humanos

Uma relação com um chatbot terminou em tragédia — e o caso abriu um novo debate sobre inteligência artificial
© https://x.com/antropocomplejo

O projeto surgiu dentro do laboratório de Abe Davis, professor assistente de ciência da computação no Ann S. Bowers College of Computing and Information Science.

Segundo os pesquisadores, a proposta da ferramenta é inverter parcialmente a lógica tradicional da inteligência artificial. Em vez de validar se a resposta da máquina está correta, o sistema verifica se os critérios usados pelos humanos permanecem consistentes ao longo do processo de decisão.

Na prática, funciona assim: o usuário define quais fatores considera importantes em determinada escolha. Pode ser preço, eficiência, segurança ou qualquer outro critério. Depois, a IA apresenta comparações entre diferentes opções e observa se as decisões tomadas realmente seguem os parâmetros estabelecidos anteriormente.

Quando encontra inconsistências, o sistema alerta o usuário.

Isso pode parecer simples, mas o mecanismo revela um comportamento muito comum: pessoas frequentemente afirmam valorizar determinados aspectos, mas escolhem baseadas em fatores completamente diferentes — muitas vezes sem perceber.

Preferências ocultas e vieses inconscientes

Um dos pontos mais interessantes do sistema é sua capacidade de identificar preferências implícitas. Durante os testes, a IA conseguiu detectar padrões que os próprios participantes não haviam reconhecido conscientemente.

Os pesquisadores usam um exemplo curioso: uma pessoa pode afirmar que está escolhendo um carro com base em economia de combustível, confiabilidade e preço. No entanto, ao analisar suas decisões repetidas vezes, o sistema percebe que ela tende a selecionar veículos vermelhos.

Nesse cenário, a IA sugere incluir “cor” como um novo critério formal da análise.

A ideia é tornar explícitos fatores emocionais ou subjetivos que normalmente permanecem escondidos durante tomadas de decisão. Segundo os pesquisadores, isso ajuda a reduzir vieses inconscientes e torna os processos mais transparentes.

O sistema já foi testado em avaliações criativas

A equipe de Cornell realizou dois experimentos iniciais para avaliar a eficácia do método.

No primeiro teste, quatro participantes utilizaram a ferramenta para classificar curtas-metragens. Segundo os relatos obtidos pelos pesquisadores, o sistema ajudou os usuários a abandonar avaliações puramente emocionais e passar a justificar suas escolhas com base em critérios mais claros e objetivos.

Na segunda aplicação, quatro assistentes de ensino avaliaram dez projetos estudantis de um curso de computação gráfica. As notas atribuídas apresentaram alta consistência entre os avaliadores e ficaram alinhadas às avaliações feitas anteriormente pelos professores responsáveis.

De acordo com o portal especializado TechXplore os resultados sugerem que a ferramenta pode oferecer diagnósticos mais repetíveis e equilibrados sobre qualidade e desempenho, algo especialmente relevante em áreas subjetivas ou criativas.

O problema que inspirou a pesquisa

A motivação para o projeto veio de uma dificuldade enfrentada pelo próprio Abe Davis. Todos os anos, ele precisava avaliar centenas de trabalhos criativos produzidos por estudantes — uma tarefa complexa mesmo com critérios definidos e apoio de assistentes experientes.

O desafio, segundo o pesquisador, era encontrar um modelo de avaliação capaz de ser escalável sem perder rigor, coerência e justiça.

Esse equilíbrio é particularmente difícil porque avaliações humanas carregam inevitavelmente componentes subjetivos. Pequenas preferências pessoais, cansaço, percepção estética ou até fatores emocionais podem alterar resultados sem que os avaliadores percebam.

A nova ferramenta tenta justamente expor essas distorções.

Uma IA que pode tornar decisões humanas mais transparentes

Inteligencia Artificial
©
Getty Images -Unsplash

Embora ainda esteja em fase experimental, o sistema aponta para uma direção interessante no desenvolvimento da inteligência artificial: menos focada em substituir humanos e mais voltada para ampliar a autoconsciência sobre como decidimos.

Em um momento em que algoritmos participam cada vez mais de processos seletivos, análises de desempenho e recomendações automáticas, ferramentas capazes de revelar inconsistências humanas podem ganhar espaço em universidades, empresas e até plataformas digitais.

No fim das contas, a pesquisa de Cornell sugere algo provocador: talvez o maior problema nas decisões automatizadas não esteja apenas nas máquinas — mas nas contradições invisíveis dos próprios seres humanos.

 

[ Fonte: Infobae ]

 

Partilhe este artigo

Artigos relacionados