Interface cérebro-computador sintetiza fala a partir do pensamento em tempo quase real

Pesquisadores desenvolveram uma neuroprótese capaz de transformar sinais cerebrais em fala sintetizada, permitindo que pacientes com paralisia severa e anartia — perda da capacidade de falar — se comuniquem de forma mais eficiente.

A nova abordagem reduz significativamente a latência na conversão de pensamento em fala, que antes levava cerca de oito segundos para formar uma sentença, tornando o processo até oito vezes mais rápido.

O sistema opera captando sinais elétricos do cérebro logo após a intenção de falar ser formada, mas antes que ocorra qualquer resposta muscular vocal. A interface processa blocos de 80 milissegundos de dados de eletrocorticografia (ECoG) por meio de um codificador neural. Em seguida, um modelo transdutor baseado em redes neurais recorrentes converte os sinais cerebrais em sons. Para tornar a voz sintetizada mais natural, os pesquisadores utilizaram gravações da voz do paciente feitas antes da lesão.

Os pesquisadores afirmam que essa tecnologia traz para as neuropróteses a mesma capacidade de decodificação rápida de fala encontrada em assistentes virtuais como Alexa e Siri.

O código do Streaming Brain2Speech Decoder está disponível no repositório cheoljun95/streaming.braindecoder do GitHub.