En la novela tradicional de Alejandro Dumas, El conde de Montecristo, un personaje llamado Monsieur Noirtier de Villefort padece un horrible infarto cerebral que lo deja paralítico. Aunque continúa despierto y consciente, ya no puede moverse ni charlar, y depende de su nieta Valentine para recitar el abecé y hojear un diccionario donde hallar las letras y palabras que precisa. Con esta tosca forma de comunicación, el decidido anciano logra salvar a Valentine de ser envenenada por su madrastra y frustrar los intentos de su padre de casarla contra su voluntad.

El retrato que hace Dumas de este estado aciago (en el que, como afirma, “el alma está atrapada en un cuerpo que ya no obedece sus órdenes”) es una de las primeras descripciones del síndrome de enclaustramiento. Esta forma de parálisis profunda se genera cuando se daña el leño encefálico, en general a raíz de un derrame cerebral, mas asimismo a resultas de tumores, lesiones cerebrales traumáticas, mordeduras de víbora, abuso de substancias, infecciones o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA).

Se piensa que este trastorno es poco usual, si bien es bastante difícil saber hasta qué punto. Muchos pacientes encerrados pueden comunicarse a través de movimientos oculares intencionados y parpadeos, mas otros pueden quedar absolutamente inmóviles, perdiendo aun la capacidad de desplazar los globos oculares o los párpados; lo que imposibilita atender a la orden “parpadea dos veces si me entiendes”. Como resultado, los pacientes pueden pasar una media de setenta y nueve días encerrados en un cuerpo inmóvil, conscientes mas inútiles de comunicarse, antes que se les diagnostique apropiadamente.

La llegada de las interfaces cerebro-máquina ha alimentado la esperanza de devolver la comunicación a las personas en este estado de encierro, permitiéndoles reconectar con el planeta exterior. Estas tecnologías acostumbran a usar un dispositivo implantado para registrar las ondas cerebrales asociadas al habla y, ahora, emplean algoritmos informáticos para traducir los mensajes deseados. Los avances más interesantes no requieren parpadeo, seguimiento ocular ni intentos de vocalización, sino atrapan y transmiten las letras o palabras que una persona afirma en silencio en su cabeza.

“Creo que esta tecnología tiene el potencial de ayudar a las personas que más han perdido, a las que están realmente enclaustradas y ya no pueden comunicarse en absoluto”, asevera Sarah Wandelt, estudiante de postgrado en computación y sistemas neuronales en Caltech de Pasadena (California, EE UU). Estudios recientes de Wandelt y otros han aportado las primeras pruebas de que las interfaces cerebro-máquina pueden descodificar el habla interna. Estos métodos, si bien prometedores, acostumbran a ser invasivos, costosos y costosos, y los especialistas coinciden en que precisarán considerablemente más desarrollo ya antes de poder dar voz a los pacientes encerrados.

El primer paso para crear una interfaz cerebro-máquina es decidir qué una parte del cerebro se va a usar. Cuando Dumas era joven, muchos pensaban que los contornos del cráneo servían de atlas para entender el funcionamiento interno de la psique. Todavía se pueden hallar vistosos diagramas frenológicos (con secciones acotadas para facultades humanas como la benevolencia, el hambre y el lenguaje) en trasnochados textos médicos y en las secciones de decoración de los grandes guardes. “Por supuesto, ahora sabemos que eso no tiene sentido”, asevera David Bjånes, neurocientífico e estudioso postdoctoral en Caltech. De hecho, ahora no cabe duda de que nuestras facultades y funciones brotan de una red de interactúes entre distintas áreas cerebrales, en la que cada área actúa como un nodo de la red neuronal. Esta dificultad supone un reto y una oportunidad: puesto que aún no se ha descubierto una zona del cerebro responsable del lenguaje interno, múltiples zonas diferentes podrían ser objetivos viables.

Por ejemplo, Wandelt, Bjånes y sus colegas descubrieron que parte del lóbulo parietal llamada circunvolución supramarginal (SMG), asociada en general a la acción de sujetar objetos, asimismo se activa mucho a lo largo del habla. Hicieron este sorprendente descubrimiento mientras que observaban a un partícipe en una investigación tetrapléjico al que habían implantado en el SMG una matriz de microelectrodos (dispositivo más pequeño que la cabeza de un alfiler, cubierto de puntas metálicas en miniatura). La matriz puede registrar el disparo de neuronas individuales y trasmitir los datos mediante una confusión de cables a una computadora a fin de que los procese.

Involucrar al cerebro, mas ¿de qué manera?

Bjånes equipara la configuración de su interfaz cerebro-máquina con un partido de futbol americano. Imagine que su cerebro es el estadio de futbol y que cada neurona es una persona en ese estadio. Los electrodos son los micrófonos que se bajan al estadio para poder percibir. “Esperamos colocarlos cerca del entrenador, o quizá de un locutor, o cerca de alguna persona del público que sepa realmente lo que está pasando”, explica. “Y entonces intentamos entender lo que ocurre en el campo. Cuando oímos el rugido del público, ¿es un touchdown? ¿Fue una jugada de pase? ¿Le han dado una patada al mariscal de campo? Intentamos entender las reglas del juego, y cuanta más información podamos obtener, mejor será nuestro dispositivo”, agrega el estudioso.

En el cerebro, los dispositivos implantados se ubican en el espacio extracelular entre neuronas, donde controlan las señales electroquímicas que se mueven mediante las sinapsis, toda vez que se dispara una neurona. Si el implante capta las neuronas pertinentes, las señales que registran los electrodos semejan ficheros de audio, reflejando un patrón diferente de picos y vales para diferentes acciones o pretensiones.

El equipo de Caltech adiestró su interfaz cerebro-máquina para reconocer los patrones cerebrales producidos en el momento en que un partícipe tetrapléjico en el estudio decía interiormente 6 palabras (campo de batalla, vaquero, pitón, cuchase, natación, teléfono) y dos pseudopalabras (nifzig, bindip). Tras solo quince minutos de adiestramiento, y usando un algoritmo de descodificación parcialmente fácil, el dispositivo pudo identificar las palabras con una precisión superior al noventa%.

Lecturas de neuronas en una zona del cerebro que se activa mucho a lo largo del habla, a lo largo de un experimento en el que un voluntario fue sometido a pruebas con una serie de palabras reales y otras sin ningún sentido.KNOWABLE MAGAZINE

Wandelt presentó el estudio, que aún no se ha publicado en una gaceta científica revisada por pares, en el congreso de la Sociedad de Neurociencia de 2022, festejado en San Diego (EE UU). En su opinión, los resultados suponen una esencial prueba de término, si bien habría que ampliar el léxico antes que un paciente encerrado pudiese frustrar a una madrastra desalmada o lograr un vaso de agua. “Obviamente, las palabras que elegimos no eran las más informativas; pero si se sustituyen por sí, no, por ciertas palabras que son realmente informativas, eso sería útil”, afirmó Wandelt en la asamblea.

Otro método evita la necesidad de ampliar el léxico diseñando una interfaz cerebro-máquina que reconoce letras en vez de palabras. Intentando vocalizar en la boca las palabras que codifican cada letra del abecé romano, un paciente paralítico podría deletrear cualquier palabra que se le pasase por la cabeza, encadenando esas palabras para comunicarse en oraciones completas.

Pasar de pensamientos a letras

Metzger y sus colegas probaron esta idea en un partícipe inútil de moverse o charlar a consecuencia de un ictus. Al partícipe en el estudio se le implantó una matriz más grande de electrodos, del tamaño de una tarjeta de crédito, en una extensa franja de su corteza motora. En sitio de percibir a ocultas neuronas individuales, este conjunto registra la actividad acompasada de decenas y decenas de miles y miles de neuronas, tal y como si se oyese a una sección de un estadio de futbol rugiendo o animando al tiempo.

Con esta tecnología, los estudiosos grabaron horas de datos y los introdujeron en complejos algoritmos de aprendizaje automático. Fueron capaces de descifrar el noventa y dos% de las oraciones dichas en silencio por el sujeto del estudio (como “Está bien” o “¿Qué hora es?”,) por lo menos en uno de cada dos intentos. El siguiente paso, conforme Metzger, podría ser conjuntar este procedimiento basado en la ortografía con otro basado en las palabras, que desarrollaron previamente, a fin de que los usuarios pudiesen comunicarse más de forma rápida y con menos esmero.

En la actualidad, cerca de 40 personas de todo el planeta llevan implantadas matrices de microelectrodos, y cada vez existen más. Muchos de estos voluntarios (personas paralizadas por accidentes cerebrovasculares, lesiones medulares o ELA) pasan horas conectados a computadoras, ayudando a los estudiosos a desarrollar nuevas interfaces cerebro-máquina que dejen a otros, cualquier día, recobrar funciones que han perdido. Jun Wang, informático y logopeda de la Universidad de Texas en Austin (EE UU), se muestra encantado con los recientes avances en la creación de dispositivos para recobrar el habla, mas advierte de que aún queda mucho camino por recorrer ya antes de su aplicación práctica. “En este momento, todo este campo está aún en una fase inicial”.

A Wang y otros especialistas les agradaría ver mejoras en el hardware y el software que hiciesen los dispositivos menos complicados, más precisos y más veloces. Por ejemplo, el dispositivo pionero del laboratorio de la Universidad de California en San Francisco funcionaba a un ritmo de unas 7 palabras por minuto, al tiempo que el habla natural va a unas ciento cincuenta palabras por minuto. E inclusive si la tecnología evoluciona hasta imitar el habla humana, no está claro si los enfoques desarrollados en pacientes con determinada capacidad para moverse o charlar van a funcionar en los que están absolutamente encerrados. “Mi intuición es que funcionaría, pero no puedo asegurarlo”, afirma Metzger, “tendríamos que verificarlo”.

Otra pregunta que continúa sin contestación es de ser posible diseñar interfaces cerebro-máquina que no requieran cirugía cerebral. Los intentos de crear enfoques no invasivos han fracasado por el hecho de que semejantes dispositivos han tratado de dar sentido a señales que han viajado mediante capas de tejido y hueso, tal y como si se tratase de proseguir un partido de futbol desde el parking.

Wang ha progresado usando una técnica de imagen avanzada, llamada magnetoencefalografía (MEG), que registra en el exterior del cráneo los campos imantados generados por las corrientes eléctricas en el cerebro, y después traduce esas señales en texto. Ahora procura edificar un aparato que reconozca los cuarenta y cuatro fonemas de la lengua inglesa (como ph u oo) para edificar sílabas, palabras y oraciones.

En última instancia, el mayor reto para restituir el habla en pacientes encerrados puede tener más que ver con la biología que con la tecnología. La forma en que se codifica el habla, sobre todo el habla interna, puede cambiar conforme el individuo o la situación. Una persona puede imaginarse garabateando una palabra en una hoja de papel y visualizarlo mentalmente; otra puede oír la palabra, aun sin que sea pronunciada, retumbando en sus oídos; otra puede asociar una palabra con su significado, evocando un estado anímico específico. Dado que cada persona puede asociar diferentes ondas cerebrales a diferentes palabras, va a haber que amoldar las técnicas a la naturaleza individual de cada persona. “Creo que este enfoque múltiple de los distintos grupos es nuestra mejor manera de cubrir todas nuestras bases, y así tener planteamientos que funcionen en un montón de contextos distintos”, afirma Bjånes.

Artículo traducido por Debbie Ponchner.

Este artículo apareció originalmente en Knowable en español, una publicación no lucrativo dedicada a poner el conocimiento científico al alcance de todos.