#lacarabuena #happynews #happy
Ahora, el dispositivo que le implantaron «convierte su intención de hablar en frases fluidas», explicó Gopala Anumanchipalli, coautor del estudio publicado.
Es la primera vez que se sintetizan el habla o las expresiones faciales a partir de señales cerebrales. El sistema también puede decodificar estas señales en texto a casi 80 palabras por minuto, una gran mejora con respecto a las 14 palabras por minuto que ofrece su dispositivo de comunicación actual.
Otras interfaces cerebro-computadora (ICC) para el habla suelen presentar un ligero retraso entre la ideación de frases y la verbalización computarizada. Estos retrasos pueden interrumpir el flujo natural de la conversación, lo que podría provocar problemas de comunicación y frustración, según los investigadores.
Este es «un gran avance en nuestro campo», afirmó Jonathan Brumberg, del Laboratorio de Neurociencia Aplicada del Habla de la Universidad de Kansas.
Un equipo en California registró la actividad cerebral de Ann mediante electrodos mientras pronunciaba frases en silencio. Los científicos utilizaron un sintetizador que construyeron con su voz antes de la lesión para crear el sonido del habla que ella habría pronunciado. Entrenaron un modelo de IA que traduce la actividad neuronal en unidades de sonido.