A conexão entre cérebro e tecnologia está avançando mais rápido do que imaginávamos. Um experimento recente demonstrou que é possível decodificar imagens mentais e convertê-las em descrições textuais, aproximando a ciência de algo que antes pertencia à ficção. Esse avanço promete revolucionar a comunicação de pessoas com dificuldades de fala, mas também desperta preocupações profundas sobre privacidade mental e o futuro das interfaces cérebro-máquina.
Como um experimento conseguiu “descrever” o que alguém imagina
Traduzir palavras pensadas já era um desafio conhecido, mas interpretar imagens mentais sempre pareceu improvável. Tomoyasu Horikawa, pesquisador dos Laboratórios de Ciências da Comunicação da NTT, desenvolveu o método chamado mind-captioning, capaz de gerar descrições textuais a partir da atividade cerebral relacionada a objetos, ações e cenas imaginadas.
No estudo, publicado na Science Advances, seis voluntários observaram 2.180 videoclipes silenciosos enquanto seus cérebros eram escaneados. Paralelamente, modelos de linguagem transformavam os subtítulos desses vídeos em sequências numéricas. Decodificadores foram então treinados para relacionar padrões cerebrais a essas sequências. Posteriormente, o sistema conseguiu gerar descrições cada vez mais precisas de vídeos novos assistidos ou lembrados pelos participantes.
Para Marcello Ienca, especialista em ética da IA, trata-se de um passo importante rumo ao que muitos chamariam de “leitura mental”, ainda que limitado ao ambiente de laboratório.
O potencial clínico: comunicação além das palavras
Uma das descobertas mais impressionantes é que o método funciona sem depender de áreas cerebrais ligadas à linguagem. Isso abre portas para pacientes com afasia, ELA ou outros distúrbios que comprometem a fala.
O psicólogo Scott Barry Kaufman acredita que essa tecnologia pode transformar a comunicação de pessoas não verbais, inclusive alguns autistas. No entanto, alerta que o uso deve ser consensual e sensível aos limites individuais.
Outro ponto notável: o sistema gerou descrições em inglês mesmo quando os participantes eram falantes nativos de japonês, indicando que a IA trabalha sobre padrões visuais, não linguísticos.

A outra face do avanço: privacidade mental em risco
O estudo reacendeu um debate urgente: até que ponto é aceitável decodificar pensamentos? Se a tecnologia evoluir, poderia ser utilizada para interpretar sonhos, pensamentos de bebês ou até de animais.
Ienca alerta que, se essa capacidade alcançar o mercado consumidor, a privacidade mental enfrentará seu maior desafio histórico. Interfaces cérebro-computador comerciais — como as da Neuralink — já exigem regulamentações rigorosas sobre o uso de dados neurológicos.
Especialistas defendem que sinais cerebrais sejam tratados como dados sensíveis por padrão, exigindo consentimento explícito e limitado. Há até propostas de “senhas mentais”: uma palavra que o usuário precisa pensar para autorizar qualquer decodificação, evitando invasões involuntárias.
O que essa tecnologia realmente consegue — e o que ainda não pode fazer
Apesar do entusiasmo e do temor, Horikawa enfatiza que o método está longe de permitir leitura de pensamentos. Ele depende de grandes quantidades de dados individuais, cooperação ativa e equipamentos de pesquisa sofisticados.
Além disso, os videoclipes utilizados retratavam cenas relativamente comuns, deixando em aberto como o sistema lidaria com imagens mentais abstratas ou incomuns.
Como afirma o autor, o processo atual “não consegue ler facilmente pensamentos privados ou inesperados”, mas abre uma discussão que a sociedade já não pode ignorar.