Crean traductor de señales cerebrales a voz sintética

Señales cerebrales

Una de las cualidades más impresionantes del cerebro humano es su capacidad para adaptarse y asignar funciones de diferentes maneras. Por ejemplo, existen diferentes casos de recuperación motora después de derrames cerebrales. Un caso reciente, que está siendo estudiado por científicos, es el de un niño que perdió una parte de su cerebro y, aún así, su IQ aumentó después del accidente, según informa el portal Cosmos

Señales cerebrales

Hasta el momento, científicos, neurólogos y lingüistas han tratado de entender cómo el cerebro concibe el discurso y lo convierte en palabras que después son emitidas por nuestro sistema de habla. La mayoría de la información señalaba que el discurso o las palabras que queremos decir se conciben en un área llamada Broca, pero no es la única implicada. Esto hace que entender las señales cerebrales sea complicado.

Por eso, hasta el momento, todos los proyectos tecnológicos que ayudaban a una persona que perdía su capacidad de habla necesitaban de movimientos musculares para su interpretación. Por ejemplo, Stephen Hawking usaba los músculos de su mejilla para producir la voz robótica que todos conocimos. Un proyecto de Google con aprendizaje automatizado permite la comunicación por medio del parpadeo o del movimiento de los ojos.

Para leer otras noticias sobre ciencia, visita este enlace.

Ahora, un grupo de científicos logró crear un sistema que interpreta señales neuronales y las convierte en palabras creando un mensaje que es comprensible, casi en su totalidad. Puede que este aún no sea perfecto pero es un paso adelante para entender a mayor profundidad cómo funciona nuestro cerebro a la hora de emitir un mensaje.

La investigación fue publicada por Gopala K. Anumanchipalli, Josh Chartier y Edward F. Chang, profesores de diferentes universidades estadounidenses en la publicación científica Nature.

Los tres profesores presentan este proyecto como un decodificador neuronal que aprovecha las representaciones cinemáticas y sonoras en la corteza cerebral para sintetizar un mensaje. De este modo, lo primero que hace su decodificador es grabar o tomar imágenes de la actividad de la corteza en representaciones de movimientos articulatorios de nuestro sistema de habla. Por ejemplo, cuando nuestra lengua toca el paladar o el movimiento de nuestras cuerdas vocales.

Después, toma estas grabaciones y las transforma en un discurso sonoro. Aunque el sistema aún no es perfecto, frases y mensajes usados durante el estudio son entendibles por las personas. Los científicos aseguran que esto solo es la superficie de lo que se puede lograr con más investigación.

Cómo se creo el decodificador de señales cerebrales

Señales cerebrales

Para la creación de este decodificador se trabajó con personas que no han perdido su capacidad de habla pero que fueron voluntarios en el estudio debido a que tenían que hacerse una cirugía cerebral porque sufrían de epilepsia. Este tipo de procedimiento, usualmente, pone electrodos en el cerebro para reconocer cuando tienen un episodio epiléptico y qué es lo que lo desencadena.

Los voluntarios del decodificador y generador de voz virtual recitaron para los investigadores cientos de frases en inglés en voz alta para grabar los patrones motores de la corteza al producir un discurso, con los electrodos en su cerebro. Estos fueron asociados con los movimiento de nuestro sistema de habla, como los labios, la lengua, la laringe y otros. Después, se convirtieron en la voz sintética y, según el estudio, un 70% del mensaje fue entendido por personas que escucharon la grabación del decodificador.

Los investigadores, además, aseguran que los patrones grabados por una persona pueden ser usados en otro paciente con resultados en la traducción muy similares. Esto significaría que el sistema podría ofrecerse a personas de manera masiva. El decodificador es capaz de generar 150 palabras por minuto, un número muy similar al del discurso humano, asegura el portal The New York Times.

El siguiente paso para la investigación será encontrar voluntarios que no posean la capacidad de habla para probar su funcionamiento. Sin embargo, cuando una persona sufre de un derrame cerebral, sus tejidos tienden a dañarse y no funcionar de la manera tradicional. Esto genera nuevos tipos de señales y actividad en áreas cerebrales que el decodificador no tiene en cuenta por ahora.

Imagen: Jolygon y  gorodenkoff (Vía iStock)

Diana Arias

Diana Arias

Soy comunicadora social de la Pontificia Universidad Javeriana, con énfasis en Producción multimedia y Periodismo, y Lingüista de la Universidad Nacional. Actualmente, estoy haciendo la especialización en economía de la Javeriana.

View all posts

Archivos