Avances en neuroprótesis para devolver el ‘habla’ a personas con parálisis grave

Dos nuevas interfaces cerebro-ordenador son capaces de descodificar la actividad cerebral en palabras con mayor rapidez, precisión y vocabulario que tecnologías previas. Investigadores de EE UU las han probado con una paciente con ELA y otra superviviente de un ictus.

Avances en neuroprótesis para devolver el ‘habla’ a personas con parálisis grave

Tiempo de lectura estimado: 12 minutos


Nuestro cerebro recuerda cómo formular palabras, aunque los músculos responsables de pronunciarlas en voz alta estén paralizados por una enfermedad. Gracias a la conexión del cerebro con los ordenadores se puede hacer realidad el sueño de recuperar la comunicación para estos pacientes.

Las personas con trastornos neurológicos, como derrames cerebrales o esclerosis lateral amiotrófica (ELA), se enfrentan a menudo a esta pérdida y los problemas asociados ella. Hasta ahora, varios estudios habían demostrado que era posible descodificar el habla a partir de las actividades cerebrales de una persona con estas enfermedades, pero solo en forma de texto y con una velocidad, precisión y vocabulario limitados.

Dos artículos que recoge la revista Nature esta semana reflejan los resultados de dos interfaces cerebro-ordenador (BCI, por sus siglas en inglés) más avanzadas y capaces de decodificar la actividad del cerebro. Con la ayuda de un dispositivo hacen posible la comunicación oral de pacientes con parálisis.

“Los primeros resultados mostraron que el dispositivo es estable cuando lo evaluamos durante un largo periodo de tiempo, mientras descodificaba 26 palabras clave. Que sea estable significa que podemos entrenar un modelo y hacer que funcione durante mucho tiempo sin tener que volver a ejercitarlo. Esto es importante para que los usuarios no tengan que dedicar constantemente tiempo al dispositivo antes de usarlo”, explica a SINC Sean Metzger, investigador de la Universidad de San Francisco (EE UU) y coautor de uno de los trabajos que se evaluó en un paciente con ictus.

Para el estudio utilizaron un método con electrodos que se colocan en la superficie del cerebro y detectan la actividad de muchas células a lo largo de todo el córtex del habla. Esta BCI descodifica las señales cerebrales para generar tres salidas simultáneas: texto, habla audible y un avatar que habla. Los investigadores entrenaron el modelo de aprendizaje profundo para descifrar los datos neuronales recogidos por este paciente con parálisis grave, causado por un derrame cerebral, mientras intentaba pronunciar frases completas en silencio.

“Esto es posible gracias a nuestros electrodos situados en la superficie del cerebro, que registran decenas de miles de neuronas, por lo que son más resistentes a pequeños cambios en el dispositivo o en las señales neuronales. Estamos impacientes por ver cómo evoluciona la estabilidad de la descodificación a lo largo de periodos de tiempo más prolongados y con tareas de descodificación más complejas, pero este es un primer indicio prometedor", asegura Metzger.

Mediante esta neuroprótesis, la traducción de cerebro a texto generó una tasa media de 78 palabras por minuto, que es 4,3 veces más rápida que el récord anterior y se acerca aún más a la velocidad de una conversación natural. La BCI alcanzó una tasa de error de palabras del 4,9% al descodificar frases de un conjunto de 50, lo que supone 5 veces menos errores que el anterior BCI de voz de última generación.

Sonidos de voz sintetizados y personalizables

Las señales cerebrales también se tradujeron directamente en sonidos de voz sintetizados inteligibles que los oyentes no entrenados podían entender, con una tasa de error de palabras del 28 % para un conjunto de 529 frases, y personalizados según el habla del participante antes de la lesión.

La BCI también descodificó la actividad neuronal de los movimientos faciales de un avatar al hablar, así como expresiones no verbales. “Hemos visto que nuestro dispositivo también permite descodificar movimientos motores de las manos, lo que puede ser útil para personas con parálisis de las extremidades, pero por ahora la descodificación es limitada”, explica el científico.

En conjunto, esta BCI multimodal ofrece a las personas con parálisis más posibilidades de comunicarse de una forma más natural y expresiva. “Además de para personas con ictus como nuestro participante, creemos que puede ser útil para personas con ELA, síndrome de enclaustramiento y personas con lesiones medulares que inhiben el control de la respiración o la laringe, necesarios para el habla. A medida que se desarrolle la tecnología, esperamos que sea útil para otras poblaciones de pacientes y permita nuevas aplicaciones”, concluye Metzger.

Los autores de este trabajo esperan poder tener listo un dispositivo clínicamente viable en los próximos 5 a 10 años, pero primero deberán validar este enfoque y la tecnología en más participantes, especialmente en aquellos con diferentes condiciones.

Implantes cerebrales

Por su parte, el segundo estudio de Nature, también enfocado a transmitir la actividad neuronal a la pantalla del ordenador, emplea una técnica mucho más invasiva. Consistió en colocarle a la paciente Pat Bennett un conjunto de pequeños electrodos de silicio insertados en el cerebro, a la vez que entrenaban a una red neuronal artificial para decodificar sus vocalizaciones.

Pat Bennett, que ahora tiene 68 años, fue directora de recursos humanos y practicaba equitación a diario. En 2012 le diagnosticaron esclerosis lateral amiotrófica (ELA), una enfermedad neurodegenerativa progresiva que ataca a las neuronas que controlan el movimiento, provocando debilidad física y, a la larga, parálisis.

El 29 de marzo de 2022, un neurocirujano de la Standford Medicine (EE UU) le colocó dos diminutos sensores, cada uno en dos regiones distintas —ambas implicadas en la producción del habla—de la superficie del cerebro. Los sensores forman parte de una interfaz cerebro-ordenador intracortical (iBCI). Combinados con el software, traducen la actividad cerebral que acompaña a los intentos de habla en palabras en una pantalla.

"Cuando uno piensa en la ELA, piensa en el impacto en brazos y piernas", explicó Bennett en una entrevista realizada por correo electrónico. "Pero en los pacientes con ELA, las dificultades comienzan con la comunicación. Yo soy incapaz de hablar", añade.

Aproximadamente un mes después de la operación, los científicos de Stanford comenzaron a realizar con ella sesiones de investigación dos veces por semana. Al cabo de cuatro meses, los intentos de Bennett se convertían en palabras en una pantalla de ordenador a una velocidad de 62 palabras por minuto, más del triple del récord anterior de comunicación asistida por BCI.

Además, alcanzó una tasa de error del 9,1 % en un vocabulario de 50 palabras, lo que supone 2,7 veces menos errores que el BCI última generación realizado en 2021. Con un vocabulario de 125.000 palabras, la tasa de error fue del 23,8 %.

“Este método utiliza la guía de microelectrodos Utah, que tiene la mejor resolución para registrar señales neuronales, a nivel de neuronas individuales. Esto ha permitido un gran aumento del rendimiento en términos de precisión y velocidad para el mayor tamaño de vocabulario para una neuroprótesis del habla, en comparación con trabajos anteriores en este campo”, indica a SINC Erin Michelle Kunz, investigadora de la Universidad de Stanford que participa en el estudio.

Para la paciente, "estos resultados iniciales han probado el concepto, y con el tiempo la tecnología se pondrá al día para hacerlo fácilmente accesible a las personas que no pueden hablar. Para quienes tienen este problema, esto significa que pueden seguir conectados con el mundo, tal vez seguir trabajando, o mantener amistades y relaciones familiares".

Cómo funciona el dispositivo

Este dispositivo funciona a través de las matrices implantadas que están unidas a finos hilos de oro que salen a través de unas conexiones atornilladas al cráneo, que se conectan por cable al ordenador. Un algoritmo de inteligencia artificial recibe y descodifica la información electrónica procedente del cerebro de Bennett, y acaba aprendiendo a distinguir la actividad cerebral asociada a sus intentos de formular cada uno de los fonemas que componen el inglés hablado.

“Será necesario realizar algún tipo de entrenamiento o personalización, aunque prevemos que será mínimo para cada nuevo usuario”, dice Michelle Kunz.

El sistema introduce su mejor estimación de la secuencia de fonemas intentados, con un sofisticado sistema de autocorrección, que convierte los flujos de fonemas en la secuencia de palabras. "Está entrenado para saber qué palabras deben ir antes que otras y qué fonemas forman qué palabras", explicó Frank Willett, de Stanford.

Para enseñar al algoritmo a reconocer los patrones de actividad cerebral asociados a cada fonema, Bennett se sometió a unas 25 sesiones de entrenamiento, de unas cuatro horas de duración cada una, durante las cuales intentó repetir frases elegidas al azar de un gran conjunto de datos, formadas por muestras de conversaciones entre personas que hablaban por teléfono. Todo el sistema fue mejorando a medida que se familiarizaba con la actividad cerebral de la paciente durante sus intentos de hablar.

"Imagínense lo diferente que será realizar actividades cotidianas como ir de compras, acudir a citas, pedir comida, entrar en un banco, hablar por teléfono, expresar amor o aprecio —incluso discutir— cuando puedan comunicar sus pensamientos en tiempo real", expresa Bennett.

"Se trata de una prueba científica de concepto, no de un dispositivo real que la gente pueda utilizar en la vida cotidiana", señala Willett. De momento el dispositivo descrito tiene licencia para uso exclusivo en investigación y no está disponible comercialmente.

Fuente: SINC
Derechos: Creative Commons.

¿Cuál es tu reacción?

like

dislike

love

funny

angry

sad

wow