Por Catharine Paddock
Los científicos están cerca de idear una tecnología que utilice la codificación del cerebro y los comandos de control muscular para permitir que las personas que han perdido el poder del habla debido a la parálisis vuelvan a hablar.
Una investigación reciente dirigida por la Northwestern University en Evanston, IL, encuentra que el cerebro genera sonidos del habla de una manera similar a la forma en que controla los movimientos de las manos y los brazos.
El hallazgo acerca el día en que las personas que están paralizadas, como las personas con “síndrome de enclaustramiento”, podrán hablar a través de una “interfaz cerebro-máquina” simplemente tratando de decir palabras.
Un artículo sobre el trabajo ahora aparece en el Journal of Neuroscience.
El equipo prevé la tecnología utilizando la propia codificación del cerebro de los sonidos junto con los comandos que controlan los músculos de los labios, la lengua, el paladar y la caja de voz para producirlos.
Más ‘intuitivo’ que la tecnología de Hawking
Tal sistema, explican los autores, sería más “intuitivo” que el utilizado por el renombrado físico Stephen Hawking, quien murió a principios de este año a la edad de 76 años.
Hawking tenía una enfermedad rara llamada esclerosis lateral amiotrófica que lo dejó paralizado e incapaz de hablar naturalmente durante la mayor parte de su vida.
Sin embargo, gracias a una interfaz de computadora que pudo controlar moviendo la mejilla, pudo escribir palabras y oraciones que luego un sintetizador de voz leyó.
Aunque el método hace el trabajo, es lento y laborioso. No es la articulación del habla lo que el cerebro codifica y envía a los músculos que producen los sonidos.
En cambio, requiere que la persona pase por un proceso que sea más parecido a la escritura; tienen que pensar, por ejemplo, acerca de la forma escrita de las palabras y oraciones que desean articular, no solo sus sonidos.
‘Fonemas y gestos articulatorios’
El estudio persigue un modelo de producción del habla que consta de dos partes: formulación de fonemas y “gestos articulatorios”.
El primero es el proceso jerárquico de descomponer oraciones, frases, palabras y sílabas en sonidos individuales o fonemas. El segundo es su producción a través del control de los músculos que articulan el tracto vocal. Hasta este trabajo, no se sabía cómo el cerebro realmente planeaba y representaba esto.
“Hicimos una hipótesis”, señala el autor principal del estudio, el Dr. Marc W. Slutzky, profesor asociado de neurología y fisiología, “las áreas motoras del habla del cerebro tendrían una organización similar a las áreas motoras del brazo”.
Continúa explicando que identificaron dos áreas del cerebro que están involucradas en la producción del habla, informando que “la corteza precentral representaba los gestos en mayor medida que los fonemas. La corteza frontal inferior, que es un área del habla de nivel superior, representaba ambos fonemas. y gestos “.
Él y sus colegas hicieron los descubrimientos mientras estudiaban la actividad cerebral en personas con electrodos implantados en sus cerebros mientras se sometían a una cirugía para extirpar tumores. Los pacientes tenían que estar conscientes durante la cirugía porque tenían que leer las palabras en una pantalla.
Los autores explican:
“Estos hallazgos sugieren que la producción del habla comparte una estructura organizativa crítica similar con el movimiento de otras partes del cuerpo”.
“Esto tiene implicaciones importantes”, concluyen, “tanto para nuestra comprensión de la producción del habla como para el diseño de interfaces cerebro-máquina para restablecer la comunicación a las personas que no pueden hablar”.
Según sus resultados, ahora planean construir un algoritmo de interfaz cerebro-máquina que, además de descifrar gestos, también podrá formar palabras combinándolas.