top of page

Nova IA da Meta converte pensamentos em palavras

Os recentes avanços tecnológicos abriram novas oportunidades ​​para melhorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa recente vem de pesquisadores de IA (inteligência artificial) da Meta.

  • A equipe conseguiu criar um método promissor e não invasivo que decodifica a fala a partir da atividade cerebral de uma pessoa.

  • Isso permite que pacientes incapazes de falar “transmitam” pensamentos usando IA.

  • O procedimento combina o uso de uma técnica de imagem com aprendizado de máquina e foi apresentado na Nature Machine Intelligence.

Como funciona a IA que “lê pensamentos”

O objetivo é oferecer uma rota alternativa e não invasiva para decodificar representações de fala. “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, explicou King – uma técnica de mapeamento da atividade cerebral por detecção de campo magnético produzido por correntes elétricas que existem no nosso cérebro.

" Esta é uma técnica de imagem que depende de um dispositivo não invasivo que pode tirar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são muito difíceis de interpretar, treinamos um sistema de IA para decodificá-los em segmentos de fala" - Jean Remi King, cientista pesquisador da Meta

Em resumo, a IA prevê a fala a partir da atividade cerebral registrada nas imagens. O sistema consiste em dois módulos: o ‘módulo cerebral’ e o ‘módulo de fala’.

O primeiro foi treinado para extrair informações da atividade cerebral humana, o de fala, por outro lado, identifica as representações de fala que devem ser decodificadas.

“Depois de um derrame ou doença cerebral, muitos pacientes perdem a capacidade de falar”, disse King ao Medical Xpress.

Teste em humanos

Os pesquisadores avaliaram a abordagem em um estudo inicial com 175 participantes humanos. Os participantes foram convidados a ouvir contos narrados e frases faladas isoladas enquanto sua atividade cerebral era monitorada.

  • A equipe obteve os melhores resultados ao analisar três segundos de sinais.

  • Eles conseguiram decodificar segmentos de fala com precisão média de 41% entre mais de 1.000 possibilidades — em alguns participantes, a precisão foi de até 80%.

  • “Ficamos surpresos com o desempenho de decodificação obtido”, disse King.

O sistema já mostrou potencial para aplicações futuras. Como não requer procedimentos cirúrgicos invasivos ou uso de implantes cerebrais, poderia ser mais fácil de usar na prática, mas, continua nos estágios iniciais de desenvolvimento e exigirá melhorias antes de poder ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.


Fonte: Olhar Digital

Comments


bottom of page