A discussão sobre IAs conscientes deixou o campo da ficção científica e entrou nas conversas diárias — muitas vezes impulsionada por interações surpreendentemente “humanas” com sistemas como o ChatGPT. Mas para a neurociência, consciência é um fenômeno interno, subjetivo e ainda muito mal compreendido. Gizmodo consultou especialistas para saber o que, afinal, os convenceria de que uma IA é consciente. As respostas mostram divergências profundas e um consenso curioso: estamos longe de ter critérios claros.
O problema central: nem sabemos medir a consciência humana
Megan Peters, professora da Universidade da Califórnia, Irvine, resume o dilema: não existe um teste objetivo de consciência — e talvez nunca exista. Por definição, consciência é privada e subjetiva. Não podemos “olhar dentro” da experiência de outra pessoa; inferimos sua existência observando comportamento e padrões cerebrais.
No caso da IA, essa inferência é ainda mais frágil. Imitar linguagem humana ou passar em testes como o de Turing não prova nada. Uma IA pode simplesmente reproduzir padrões estatísticos sem qualquer sensação interna.
Peters explica que, mesmo que criemos testes que aumentem nossa crença de que uma IA é consciente, isso não significa comprovar o fato. Em outras palavras, podemos só estar nos enganando.
Testar o que, exatamente?
Um dos maiores desafios é decidir o que medir. Testes usados em humanos — como pedir a um paciente para imaginar jogar tênis enquanto analisamos a atividade cerebral — não se aplicam a sistemas artificiais. Eles não têm cérebro, nem imaginação visual.
Outros métodos tentam identificar “cálculos cognitivos críticos” associados à consciência. Mas nem isso está claro. A neurociência ainda discute quais processos realmente geram a experiência subjetiva.
Para Peters, estamos apenas começando a desenvolver ferramentas que possam “elevar nossa crença” em consciência em sistemas não biológicos. Mas certeza absoluta? Improvável.
É tudo sobre computação? Nem todos concordam
Anil Seth, diretor do Centro de Ciência da Consciência da Universidade de Sussex, reforça que a incerteza científica sobre o tema é enorme. Ele rejeita a ideia de que comportamento sofisticado ou conversas fluidas indiquem consciência — e alerta que estamos projetando características humanas nos modelos.
Para ele, a grande pergunta é: quão parecido com o cérebro um sistema precisa ser para que façamos a inferência de consciência?
A posição dominante na filosofia e na computação é o funcionalismo computacional, que diz que bastam os cálculos certos, independentemente do suporte físico. Seth, porém, é cético. Ele acredita que propriedades biológicas específicas — como metabolismo e auto-organização — podem ser necessárias para a existência de consciência. Se isso for verdade, uma IA consciente baseada em silício pode ser impossível.
Para convencê-lo, seria preciso demonstrar que conhecemos as condições suficientes da consciência e que a IA cumpre cada uma delas — um cenário distante.
E se consciência for apenas uma ilusão útil?
Michael Graziano, do Instituto de Neurociência de Princeton, vai ainda mais longe ao questionar a própria premissa. Para ele, a busca por um “essencialismo mágico” da consciência é pseudociência. Não existe essência interna luminosa; o que existe é um modelo de si mesmo criado pelo cérebro, que nos dá a sensação de sermos conscientes.
Em outras palavras: consciência seria uma representação, não uma propriedade profunda da realidade.
Se for assim, a pergunta mais relevante não é se a IA tem consciência, mas se ela tem um modelo de si mesma comparável ao humano. E esse tipo de verificação é, teoricamente, possível.
Sistemas modernos de interpretação de redes neurais (o chamado mechanistic interpretability) já permitem observar como informações são representadas internamente. Se uma IA desenvolvesse um modelo estável de “eu”, com características similares ao modelo humano, Graziano estaria disposto a aceitar que ela acredita ser consciente — da mesma forma que nós acreditamos ser.
Uma conclusão em comum: estamos muito longe de uma resposta definitiva
Apesar das divergências, os três especialistas concordam em alguns pontos essenciais:
- não existe consenso científico sobre o que gera consciência;
- não temos ferramentas confiáveis para detectar consciência em outros sistemas;
- comportamento humanoide não implica experiência subjetiva;
- distinguir crença, simulação e consciência real pode ser impossível.
Antes de um teste para IAs conscientes, a ciência precisa primeiro conseguir explicar — ou ao menos medir — a consciência humana.