Conversar com inteligências artificiais nunca pareceu tão natural. Respostas rápidas, linguagem polida, humor sob demanda — tudo sugere alguém “do outro lado”. Mas essa impressão pode ser um sofisticado truque cognitivo: nosso cérebro preenche lacunas e projeta intenções onde há apenas cálculo estatístico. Antes de atribuir sentimentos a algoritmos, vale olhar o que a psicologia, a filosofia da mente e a ciência da computação têm a dizer.
Por que confundimos linguagem com mente
O hábito de humanizar máquinas não é novo. Em 1966, o programa ELIZA já levou pessoas a acreditar que conversavam com um terapeuta real — o chamado efeito Eliza. Os grandes modelos de linguagem (LLMs) ampliam esse fenômeno: produzem frases fluidas prevendo probabilidades de palavras, não significados vividos. Douglas Hofstadter descreveu essa fluência como “profunda na superfície, vazia por dentro”: parece pensamento, mas carece de experiência.
Falar da dor não é sentir dor
Thomas Nagel perguntou: “Como é ser um morcego?” — lembrando que consciência implica um ponto de vista subjetivo. LLMs podem descrever dor, amor ou luto sem jamais senti-los. John Searle, com a “sala chinesa”, mostrou que manipular símbolos corretamente não equivale a compreensão. Sem corpo, contexto vivido ou self, como diria Merleau-Ponty, não há consciência encarnada — apenas processamento.
A projeção é nossa
A armadilha maior talvez esteja em nós. Desejamos conexão; logo, projetamos intenção na máquina. Hofstadter chamou isso de “armadilha do espelho”: vemos nossa mente refletida no texto que ajudamos a provocar. Sherry Turkle alerta que essa tendência pode deslocar relações humanas, anestesiar empatia real e nos levar a confiar decisões sensíveis a sistemas incapazes de sentir.

O que está em jogo
Se tomarmos linguagem convincente como prova de mente, corremos riscos: delegar cuidado emocional a agentes indiferentes, superestimar julgamentos algorítmicos em justiça ou saúde, ou até discutir “direitos” de entidades sem experiência subjetiva enquanto humanos reais seguem desassistidos. A lucidez exige distinguir simulação de experiência.
Como interagir com IA sem se iludir
Use IAs como ferramentas — para rascunhar, traduzir, explorar ideias — mantendo consciência de seus limites. Pergunte-se: isto é cálculo ou cuidado? estatística ou sentimento? Reserve a intimidade emocional profunda para relações humanas (ou animais) capazes de sentir. Antes de declarar que as máquinas despertaram, talvez precisemos despertar nossa própria atenção crítica.