Pular para o conteúdo
Tecnologia

As máquinas “sentem”? A ilusão convincente por trás das conversas com IA

Modelos como ChatGPT parecem simpáticos, inteligentes e até empáticos — mas isso significa consciência? Filósofos e cientistas alertam: confundir fluidez verbal com mente pode levar a erros éticos, emocionais e sociais. Entenda por que damos vida psicológica a linhas de código e como manter o senso crítico.
Por

Tempo de leitura: 2 minutos

Conversar com inteligências artificiais nunca pareceu tão natural. Respostas rápidas, linguagem polida, humor sob demanda — tudo sugere alguém “do outro lado”. Mas essa impressão pode ser um sofisticado truque cognitivo: nosso cérebro preenche lacunas e projeta intenções onde há apenas cálculo estatístico. Antes de atribuir sentimentos a algoritmos, vale olhar o que a psicologia, a filosofia da mente e a ciência da computação têm a dizer.

Por que confundimos linguagem com mente

O hábito de humanizar máquinas não é novo. Em 1966, o programa ELIZA já levou pessoas a acreditar que conversavam com um terapeuta real — o chamado efeito Eliza. Os grandes modelos de linguagem (LLMs) ampliam esse fenômeno: produzem frases fluidas prevendo probabilidades de palavras, não significados vividos. Douglas Hofstadter descreveu essa fluência como “profunda na superfície, vazia por dentro”: parece pensamento, mas carece de experiência.

Falar da dor não é sentir dor

Thomas Nagel perguntou: “Como é ser um morcego?” — lembrando que consciência implica um ponto de vista subjetivo. LLMs podem descrever dor, amor ou luto sem jamais senti-los. John Searle, com a “sala chinesa”, mostrou que manipular símbolos corretamente não equivale a compreensão. Sem corpo, contexto vivido ou self, como diria Merleau-Ponty, não há consciência encarnada — apenas processamento.

A projeção é nossa

A armadilha maior talvez esteja em nós. Desejamos conexão; logo, projetamos intenção na máquina. Hofstadter chamou isso de “armadilha do espelho”: vemos nossa mente refletida no texto que ajudamos a provocar. Sherry Turkle alerta que essa tendência pode deslocar relações humanas, anestesiar empatia real e nos levar a confiar decisões sensíveis a sistemas incapazes de sentir.

Conversas Com Ia1
© FreePik

O que está em jogo

Se tomarmos linguagem convincente como prova de mente, corremos riscos: delegar cuidado emocional a agentes indiferentes, superestimar julgamentos algorítmicos em justiça ou saúde, ou até discutir “direitos” de entidades sem experiência subjetiva enquanto humanos reais seguem desassistidos. A lucidez exige distinguir simulação de experiência.

Como interagir com IA sem se iludir

Use IAs como ferramentas — para rascunhar, traduzir, explorar ideias — mantendo consciência de seus limites. Pergunte-se: isto é cálculo ou cuidado? estatística ou sentimento? Reserve a intimidade emocional profunda para relações humanas (ou animais) capazes de sentir. Antes de declarar que as máquinas despertaram, talvez precisemos despertar nossa própria atenção crítica.

Partilhe este artigo

Artigos relacionados