El doctor Richard Andersen y un grupo de investigadores del prestigioso Caltech (Instituto de Tecnología de California) comprobaron, mediante experimentos –entre ellos el cachipún–, que existen neuronas que actúan como comandos de un control remoto para cada acción o postura, de forma que estas están programadas en las redes neuronales y es por eso que podemos ejecutarlas casi automáticamente.
Una de las características que separa al humano y a algunos primates del resto de los animales, es el hábil control que tenemos de nuestras manos, lo que nos permite hacer cosas que ninguna otra especie puede hacer, alcanzando un nivel incomparable de habilidad para manipular objetos.
Es esta habilidad la que nos ha permitido desarrollar cosas esenciales para nuestra civilización, como la elaboración de herramientas, que a su vez permite el avance de la tecnología y el desarrollo de la escritura, entre muchas otras cosas. Además, a diferencia del resto de los primates, usamos gestos manuales complejos para comunicarnos, incluso sin darnos cuenta, por ejemplo, mientras conversamos.
Los estudiosos de la evolución nos plantean que esta capacidad de un control fino de nuestras manos se dio junto con el aumento del tamaño de nuestro cerebro; un cerebro más complejo nos permite ejecutar tareas más complejas.
Una gran proporción de nuestro cerebro, la corteza motora, está dedicado al control motor de las distintas partes de nuestro cuerpo, pero no a todas las partes se les dedica la misma cantidad de neuronas. Son precisamente las manos las que reciben una de las mayores proporciones de neuronas motoras, que son las neuronas que les envían las señales a los músculos para que se activen.
Más allá de esto, hay mucho que aun no se sabe.
Claramente, el control de las manos no es solo activar músculos. Imagine, por ejemplo, que va a tomar un lápiz; usted no piensa “tengo que extender el pulgar, flectar levemente el índice y el dedo medio”, más aun, no piensa en los músculos que tiene que mover, solo piensa en tomar un lápiz y rápidamente podrá ejecutar la postura adecuada con la mano. Es como si el movimiento ya estuviera programado y la intención de hacer el movimiento bastara para iniciar su ejecución. ¿Cierto?
Precisamente este fenómeno es el que estudia un grupo de investigadores del prestigioso Caltech (Instituto de Tecnología de California), liderado por Richard Andersen, en colaboración con el centro de rehabilitación “Rancho Los Amigos”, cuyo trabajo fue publicado hace poco en la revista Journal of Neuroscience.
Mucho de lo que se sabía hasta ahora sobre la intención de ejecutar movimientos con las manos se había estudiado en diversos monos, que pueden usar sus manos para manipular cosas y hacer tareas medianamente complejas, principalmente para alimentarse.
En ellos se identificaron neuronas en distintas áreas del cerebro encargadas de distintas fases del movimiento: primero se genera una visualización del movimiento que se requiere hacer, luego en otras áreas se genera la intención de generar el movimiento y desde ahí se envía la señal a la corteza motora que finalmente ejecutará el movimiento.
En el caso de la visualización y de la intención, se vio que existe una neurona distinta para cada movimiento o forma que se quiere ejecutar, es decir, es en estas neuronas donde están programadas las formas de la mano. Estos hallazgos permitieron incluso que un mono pudiera controlar un brazo robótico conectado directamente a su cerebro y usarlo para alimentarse. Sin embargo, se ha demostrado que en estos casos la forma de la mano a ejecutar está estrechamente relacionada con la visualización del objeto que se quiere agarrar.
Entonces, los investigadores quisieron saber si las formas de mano no asociadas a objeto que podemos ejecutar los humanos están programadas en el mismo tipo de neuronas o no.
Para la investigación, trabajaron con una persona que sufre tetraplejia desde hace varios años, debido a una lesión cervical. En este tipo de pacientes, las señales que envía el cerebro no pueden llegar a su destino producto de la lesión de la médula espinal, por lo que se han hecho varios intentos por leer las señales que envía el cerebro y usarlas para controlar brazos y piernas robóticas, hasta ahora sin mucho éxito.
En lugar de tratar de leer las señales que van hacia los músculos, esta vez los investigadores fueron a medir las señales de las neuronas que generan la intención de movimiento, mediante la implantación quirúrgica de electrodos directamente en el área del cerebro donde se genera la intención de los movimientos. Usando esta aproximación han logrado un gran éxito: el paciente ya puede controlar un brazo robot para tomar objetos e incluso beber de una botella por sí mismo.
Pero ahora venía el siguiente desafío, los movimientos y formas de mano que son independientes de agarrar un objeto.
Para ello, desarrollaron una tarea muy simple pero ingeniosa, que el paciente jugara a piedra, papel o tijera, o más conocido en Chile como “cachipún”, usando el brazo robótico. Para agregar más complejidad y variedad a las formas de mano que se debían ejecutar, usaron también la variante “piedra, papel, tijera, lagarto, Spock”, popularizada hace algunos años por una serie de televisión norteamericana ambientada en el mismo Caltech.
Primero hubo una fase de entrenamiento en que al paciente se le daba una señal visual o auditiva que le indicaba qué jugada tenía que hacer. De esta forma, el brazo robot aprende a entender la señal que le envía el cerebro y a ejecutar la postura adecuada.
Lo interesante de esto es que, por un lado, el movimiento a ejecutar ya no depende de imaginar que uno va a agarrar un objeto, sino más bien de imitar la forma de un objeto e incluso realizar una forma abstracta, como es el caso de Spock, en que el gesto no tiene que ver con la forma del personaje, sino de uno de los gestos que hacía; tradicionalmente en el juego se usa un gesto llamado saludo vulcano –los dedos extendidos, separando el dedo medio del anular–, pero en el estudio se usó un gesto más parecido a pellizcar –que el personaje usaba para aturdir a sus oponentes–, para poder usar un gesto que el paciente ya supiera ejecutar antes de haber perdido la movilidad.
Los resultados indican que, efectivamente, existe una neurona para cada forma de mano que queramos ejecutar, independientemente de si el gesto es para agarrar un objeto o es una forma abstracta. Con esto se comprueba que existen neuronas que actúan como comandos para cada acción o postura, de forma que estas están programadas en las redes neuronales y es por eso que podemos ejecutarlas casi automáticamente, prácticamente sin pensar.
Por otra parte, esto explicaría también el hecho de que nos cueste hacer movimientos nuevos –como, por ejemplo, un acorde en guitarra que no conocemos–, pero que después de mucha práctica ya podemos hacerlos naturalmente.
Esta investigación ha aportado importantes avances en distintos ámbitos.
Por un lado, ha permitido un gran progreso en la tecnología de prótesis para pacientes con diversas afecciones, ya que el nivel de fineza y complejidad de los movimientos logrado era inimaginable hace algunos años, lo que hace pensar que las prótesis robóticas completamente funcionales no están muy lejanas.
Por otra parte, estos resultados representan un avance para entender cómo funciona el cerebro, no solo a nivel motor sino que estos resultados entregan ideas que se pueden extender a otras funciones del cerebro.
Referencia: The Journal of Neuroscience, 2015; 35(46):15466 –15476
No hay comentarios:
Publicar un comentario