Pular para o conteúdo
Tecnologia

Uma IA que “legendou” a mente: como cientistas já conseguem transformar atividade cerebral em frases completas

Pesquisadores japoneses desenvolveram uma inteligência artificial capaz de transformar padrões de atividade cerebral em frases coerentes, sem que a pessoa diga uma única palavra. A técnica, chamada mind captioning, usa imagens do cérebro para gerar descrições detalhadas do que alguém vê ou imagina, aproximando a ciência de um antigo sonho: traduzir pensamentos em texto.
Por

Tempo de leitura: 3 minutos

Ler pensamentos ainda soa como ficção científica, mas a neurociência e a IA estão encurtando esse caminho mais rápido do que muita gente imagina. Um time do NTT Communication Science Laboratories, no Japão, criou um sistema capaz de “legendar” a mente humana a partir de sinais cerebrais. Em vez de adivinhar palavras soltas, essa IA constrói frases inteiras que descrevem cenas vistas ou imaginadas. Entenda como funciona essa tecnologia — e o que ela pode significar para o futuro.

Do vídeo no monitor ao texto na tela

Cérebro Já Pode Ser Traduzido
© FreePik

O estudo, liderado por Tomoyasu Horikawa e publicado na revista Science Advances, mostra pela primeira vez um sistema artificial capaz de gerar frases coesas apenas a partir de padrões cerebrais, sem apoio do discurso falado.

O experimento começa com voluntários dentro de um aparelho de ressonância magnética funcional (fMRI). Eles assistem a milhares de vídeos curtos com cenas variadas — pessoas pulando, animais, paisagens, ações do dia a dia. Ao mesmo tempo, a atividade do cérebro é registrada em alta resolução.

Em seguida, entra a inteligência artificial: os pesquisadores treinam o modelo para aprender a relação entre esses padrões neurais e os textos que descrevem cada vídeo. Não se trata de uma tradução direta do tipo “pixel cerebral = palavra X”, mas de algo bem mais sofisticado.

O que é o mind captioning e por que ele é diferente

O coração da técnica é o chamado mind captioning: em vez de “decodificar” palavras isoladas, a IA reconstrói o significado da cena como um todo.

Primeiro, a atividade cerebral é projetada em um espaço semântico, um tipo de mapa conceitual do significado. Esse espaço organiza ideias, ações, objetos e contextos em uma representação abstrata.

Depois, um modelo de linguagem — semelhante, em espírito, a sistemas como o ChatGPT — pega essa representação semântica e a transforma em frases escritas, ajustando o texto ao contexto da cena.

O resultado? De uma nuvem de dados neurais, o sistema é capaz de gerar descrições como:

“Uma pessoa salta de um penhasco em direção à água.”

Isso representa um avanço em relação a estudos anteriores, que mal conseguiam identificar algumas palavras-chave ou categorias gerais. Agora, o sistema consegue capturar o contexto completo: quem aparece na cena, o que faz e o que está acontecendo ao redor.

Pensar sem falar: o que o cérebro visual revela

Segredo Do Cérebro
© FreePik

Um dos pontos mais surpreendentes do trabalho é que o sistema continua funcionando mesmo quando os pesquisadores excluem do cálculo as regiões clássicas de linguagem, como áreas associadas à fala e à compreensão verbal.

Mesmo sem essas regiões, a IA ainda consegue gerar descrições detalhadas das cenas vistas ou lembradas pelos participantes. Isso indica que o significado visual — a relação entre objetos, ações e contexto — está espalhado por outras áreas, como:

  • o lobo occipital, ligado ao processamento visual;

  • o córtex parietal, que integra informações espaciais e sensoriais;

  • regiões do lobo frontal, associadas a planejamento e tomada de decisão.

Para Horikawa, os resultados mostram que o conteúdo mental pode ser representado e decodificado sem depender diretamente do sistema de linguagem. Em outras palavras: o cérebro consegue organizar significados complexos mesmo antes de colocá-los em palavras — e a IA está aprendendo a ler essa camada.

O cérebro como fonte de dados: o que vem pela frente

Por trás dessa tecnologia está a própria atividade cerebral, conjunto de processos elétricos e químicos que ocorrem quando neurônios se comunicam por meio de sinapses e neurotransmissores. Técnicas como fMRI ou eletroencefalograma captam diferentes aspectos dessa atividade e os transformam em sinais mensuráveis.

O estudo japonês mostra que esses sinais não são apenas “ruído biológico”, mas um código rico que a IA consegue explorar para recuperar cenas, ações e até contextos.

No futuro, avanços em mind captioning podem abrir portas para:

  • novas formas de comunicação para pessoas que perderam a fala;

  • interfaces cérebro–máquina muito mais naturais;

  • ferramentas para estudar como pensamos, lembramos e imaginamos.

Ao mesmo tempo, a ideia de uma tecnologia capaz de “ler” pensamentos levanta questões éticas gigantescas sobre privacidade mental e consentimento. Se o cérebro é a última fronteira da intimidade humana, sistemas assim aproximam a ciência de um futuro em que até o silêncio pode ser traduzido em palavras.

 

[ Fonte: Infobae ]

 

Partilhe este artigo

Artigos relacionados