Menu
Pesquisa
Pesquisa
Busca interna do iBahia
HOME > A TARDE ESG
Ouvir Compartilhar no Whatsapp Compartilhar no Facebook Compartilhar no X Compartilhar no Email

A TARDE ESG

Implante cerebral de mulher transforma seus pensamentos em fala

Pesquisadores treinaram uma rede neural flexível e de aprendizado profundo na atividade do córtex sensório-motor

Por Redação

01/04/2025 - 11:41 h
Novo processo de interface cérebro-computador (BCI)
Novo processo de interface cérebro-computador (BCI) -

Quase duas décadas depois de sofrer um derrame cerebral aos 30 anos, que a deixou incapaz de falar, uma mulher nos EUA recuperou a capacidade de transformar seus pensamentos em palavras em tempo real graças a um novo processo de interface cérebro-computador (BCI). Ao analisar sua atividade cerebral em incrementos de 80 milissegundos e traduzi-la em uma versão sintetizada de sua voz, o método inovador de pesquisadores dos EUA dissipou um atraso frustrante que afetava versões anteriores da tecnologia.

A capacidade do nosso corpo de comunicar sons como pensamos é uma função que frequentemente tomamos como certa. Somente em raros momentos, quando somos forçados a fazer uma pausa para um tradutor, ou ouvir nossa fala atrasada por um alto-falante, é que apreciamos a velocidade da nossa própria anatomia. Para indivíduos cuja capacidade de moldar o som foi cortada dos centros de fala do cérebro , seja por condições como esclerose lateral amiotrófica ou lesões em partes críticas do sistema nervoso , implantes cerebrais acoplados a software especializado prometem uma nova chance de vida.

Leia Também:

Vários projetos de tradução de fala do BCI tiveram avanços monumentais recentemente, cada um com o objetivo de reduzir o tempo necessário para gerar fala a partir de pensamentos. A maioria dos métodos existentes exige que um pedaço completo de texto seja considerado antes que o software possa decifrar seu significado, o que pode prolongar significativamente os segundos entre o início da fala e a vocalização.

Isso não só é antinatural como também pode ser frustrante e desconfortável para quem usa o sistema. "Melhorar a latência da síntese da fala e a velocidade de decodificação é essencial para uma conversa dinâmica e uma comunicação fluente", escrevem os pesquisadores da Universidade da Califórnia em Berkeley e São Francisco em seu relatório publicado. Isso é "agravado pelo fato de que a síntese de fala exige tempo adicional para ser reproduzida e para que o usuário e o ouvinte compreendam o áudio sintetizado", explica a equipe, liderada pelo engenheiro de computação Kaylo Littlejohn, da Universidade da Califórnia, Berkeley.

Além disso, a maioria dos métodos existentes depende do treinamento do "falante" na interface, passando abertamente pelos movimentos de vocalização. Para indivíduos que estão fora de prática ou sempre tiveram dificuldade para falar, fornecer dados suficientes ao seu software de decodificação pode ser um desafio. Para superar esses dois obstáculos, os pesquisadores treinaram uma rede neural flexível e de aprendizado profundo na atividade do córtex sensório-motor da participante de 47 anos enquanto ela silenciosamente "falava" 100 frases únicas de um vocabulário de pouco mais de 1.000 palavras.

Littlejohn e colegas também usaram uma forma de comunicação assistida baseada em 50 frases usando um conjunto menor de palavras. Operando em incrementos de 80 milissegundos, este último método de tradução de comandos neurais em fala pode se comunicar de uma maneira quase natural. Diferentemente dos métodos anteriores, esse processo não envolvia a tentativa do participante de vocalizar, apenas de pensar nas frases em sua mente.

A decodificação de ambos os métodos de comunicação pelo sistema foi significativa, com o número médio de palavras por minuto traduzidas quase o dobro dos métodos anteriores. Importante, usar um método preditivo que pudesse interpretar continuamente na hora permitiu que a fala da participante fluísse de uma maneira muito mais natural, 8 vezes mais rápida do que outros métodos. Até soou como sua própria voz, graças a um programa de síntese de voz baseado em gravações anteriores de sua fala.

Executando o processo offline sem limitações de tempo, a equipe mostrou que sua estratégia podia até mesmo interpretar sinais neurais representando palavras nas quais não havia sido treinada deliberadamente. Os autores observam que ainda há muito espaço para melhorias antes que o método possa ser considerado clinicamente viável. Embora a fala fosse inteligível, ela ficou bem aquém dos métodos que decodificam texto.

Pesquisa publicada na Nature Neuroscience

Compartilhe essa notícia com seus amigos

Compartilhar no Email Compartilhar no X Compartilhar no Facebook Compartilhar no Whatsapp

Tags:

EUA Fala implante cerebral

Cidadão Repórter

Contribua para o portal com vídeos, áudios e textos sobre o que está acontecendo em seu bairro

ACESSAR

Siga nossas redes

Siga nossas redes

Publicações Relacionadas

A tarde play
Novo processo de interface cérebro-computador (BCI)
Play

A construção da água, molécula por molécula

x

Assine nossa newsletter e receba conteúdos especiais sobre a Bahia

Selecione abaixo temas de sua preferência e receba notificações personalizadas

BAHIA BBB 2024 CULTURA ECONOMIA ENTRETENIMENTO ESPORTES MUNICÍPIOS MÚSICA O CARRASCO POLÍTICA