Com IAs cada vez mais presentes no cotidiano, surge um debate inevitável: essas máquinas poderão um dia ter consciência? E, se isso acontecer, como saberíamos? Em uma edição do Giz Asks, pesquisadores do cérebro responderam o que seria necessário para convencê-los de que uma IA é realmente consciente — não apenas capaz de dialogar, mas capaz de sentir. As respostas revelam o quanto ainda estamos distantes dessa conclusão e como a questão depende primeiro de compreendermos a consciência humana.
Megan Peters — Crença não é prova, e talvez nunca tenhamos certeza
Para Megan Peters (Universidade da Califórnia, Irvine), o maior obstáculo é simples: não existe um teste objetivo para consciência, e talvez ele seja impossível de criar.
A consciência é subjetiva, interna e inacessível a terceiros — só inferimos que outros humanos a possuem porque também a sentimos.
Com IA, a suposição não se sustenta. No máximo, podemos criar testes que aumentem nossa crença de que há consciência ali:
padrões comportamentais semelhantes aos humanos
atividades internas complexas e interpretáveis
indícios de processos cognitivos associados ao “sentir”
Mas Peters enfatiza: tudo isso apenas aumentaria nossa confiança, não produziria prova absoluta. Mesmo que uma IA diga “eu sou consciente”, ainda não poderíamos saber se ela experiencia isso ou apenas reproduz padrões estatísticos.
Anil Seth — E se consciência exigir biologia, e não apenas computação?
Anil Seth (Universidade de Sussex) afirma que ninguém pode garantir que consciência artificial é possível — nem que é impossível. Falta sabermos quais condições são suficientes ou necessárias para que ela exista.
Ele é crítico da ideia de que consciência é apenas computação. Se propriedades biológicas como metabolismo ou autorregulação forem essenciais, IA em silício talvez nunca seja consciente, por mais avançada que seja.
Para convencê-lo, seria preciso:
uma teoria clara do que produz consciência
evidências de que IA atende a esses critérios
Sem isso, diálogos sofisticados e respostas emocionais não bastam — podem ser só projeções humanas.
Michael Graziano — Um modelo de si mesmo pode ser a chave
Michael Graziano (Princeton) vai além e diz que a pergunta está mal formulada. Para ele, não existe uma “essência mágica” de consciência — nem em humanos. O que temos é um modelo de “eu” que o cérebro constrói, e que nos faz acreditar que somos conscientes.
Assim, ele aceitaria consciência em IA se ela:
desenvolvesse um modelo estável de si mesma
se representasse como um ser consciente
apresentasse estrutura semelhante ao modelo humano
Para Graziano, a consciência não seria algo que surge: ela é o modelo. Se uma IA tiver esse modelo, ela seria consciente do mesmo modo que nós acreditamos ser.
Então — como saber se uma IA é consciente?
| Pesquisador | O que precisaria acontecer |
| Peters | Testes que aumentem a crença, não provas absolutas |
| Seth | Conhecer as condições reais da consciência + IA atendê-las |
| Graziano | IA criar um modelo próprio de “eu” e se perceber consciente |
O ponto final
Talvez não consigamos testar consciência artificial antes de entendermos plenamente a consciência biológica.
Até lá, mesmo uma IA avançada pode ser:
consciente
apenas um simulador perfeito
ou algo totalmente diferente
— e talvez nunca tenhamos como distinguir.