Llevar bolsas de la compra, enhebrar una aguja o cualquier tarea que requiera fuerza y precisión en nuestras manos son acciones cotidianas a las que no damos mucha importancia, hasta que enfrentamos la imposibilidad de realizarlas. Condiciones como la paraplejia o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA) limitan estos movimientos esenciales debido a la parálisis muscular progresiva, afectando profundamente la calidad de vida de las personas.
Ante este reto, científicos llevan décadas trabajando en el desarrollo de neuroprótesis que ofrezcan una solución. Estas extremidades artificiales, como manos, brazos y piernas, buscan restaurar la movilidad en personas con discapacidades físicas. A través de interfaces cerebro-ordenador, los investigadores intentan decodificar señales del cerebro y traducirlas en movimientos que controlen estas prótesis. Sin embargo, las manos prostéticas han enfrentado limitaciones significativas, sobre todo en la ejecución de movimientos complejos necesarios para la vida cotidiana.
“El éxito de una prótesis depende de los datos neuronales que la interfaz informática es capaz de interpretar”
“El éxito de una prótesis depende de los datos neuronales que la interfaz informática es capaz de interpretar”, señala Andrés Agudelo-Toro, científico del Laboratorio de Neurobiología del Centro Alemán de Primates y principal autor del estudio reciente. Según Agudelo-Toro, los trabajos anteriores se han centrado principalmente en analizar las señales responsables de la velocidad en los movimientos de agarre, sin explorar las señales neuronales que representan las distintas posturas de las manos. Estas últimas podrían tener un potencial mayor en el control efectivo de neuroprótesis, algo que los investigadores quisieron comprobar.
Los investigadores llevaron a cabo el estudio utilizando monos rhesus (Macaca mulatta), una especie con un sistema nervioso y habilidades motoras finas avanzadas, similares a las de los humanos. Estas características convierten a los monos rhesus en un modelo ideal para estudiar los complejos movimientos de agarre.
En una primera etapa, los científicos entrenaron a los primates para que manipularan una manovirtual en una pantalla usando sus propias manos. Un guante especial con sensores magnéticos registraba los movimientos realizados mientras los monos observaban el avatar replicar sus acciones en tiempo real. Esta fase permitió que los animales comprendieran la relación entre sus movimientos físicos y los digitales.
Una vez entrenados, los monos avanzaron hacia una fase en la que debían controlar la mano virtual simplemente “imaginando” los movimientos. Durante esta etapa, se midió la actividad neuronal en áreas específicas de la corteza cerebral que controlan la motricidad de las manos, focalizándose en las señales relacionadas con las distintas posturas de los dedos y la mano. Usando estos datos, los investigadores ajustaron el algoritmo de la interfaz cerebro-ordenador para que no solo descifrara el destino de un movimiento, sino también el camino que sigue para alcanzarlo.
“Nos alejamos del enfoque tradicional y modificamos el algoritmo para considerar el trayecto que toma un movimiento, no solo su resultado final. Esto permitió lograr una precisión sin precedentes”, explica Agudelo-Toro. El estudio mostró que los movimientos realizados por la mano virtual, basándose en las señales cerebrales de los monos, eran comparables en precisión a los movimientos reales registrados previamente.
"Nos alejamos del enfoque tradicional y modificamos el algoritmo para considerar el trayecto que toma un movimiento, no solo su resultado final"
Para los investigadores, estos resultados representan un gran paso en el desarrollo de neuroprótesis capaces de replicar los movimientos complejos y delicados de la mano humana. Hansjörg Scherberger, director del Laboratorio de Neurobiología y coautor del estudio, afirmó que esta metodología centrada en las señales de postura podría ser clave para mejorar las funcionalidades de las interfaces cerebro-ordenador. “Hemos demostrado que las señales que controlan la postura de la mano son fundamentales para el control de neuroprótesis. Este avance puede traducirse en mejoras significativas en la motricidad fina de las prótesis futuras”.
Este proyecto de investigación ha sido financiado por la Fundación Alemana de Investigación (DFG) y el programa Horizonte 2020 de la Unión Europea a través del proyecto B-CRATOS. El éxito de esta investigación podría abrir nuevas puertas para el diseño de prótesis altamente funcionales, brindando esperanza a miles de pacientes que buscan recuperar su independencia y capacidad motriz.