http://www.madrimasd.org/informacionidi/noticias/noticia.asp?id=51415&origen=notiweb
Algún día, los neurocientíficos
serán capaces de espiar los constantes monólogos internos que se
suceden en nuestras mentes, o podrán escuchar el discurso imaginario de
un paciente con un derrame cerebral o con síndrome de enclaustramiento,
un cuadro clínico radical por el que el afectado está despierto y
consciente, pero no puede moverse ni hablar.
|
|
FUENTE | ABC Periódico Electrónico S.A. | 02/02/2012 |
|
Al menos, de esto están convencidos los investigadores de la Universidad de California,
Berkeley, que han logrado reconstruir palabras a partir de la actividad
eléctrica cerebral de unos sujetos. El trabajo aparece publicado en la
revista de acceso abierto PLoS Biology.
En concreto, los científicos fueron capaces de «entender» la actividad eléctrica en una región del sistema auditivo humano llamada circunvolución temporal superior (STG, por sus siglas en inglés). Al analizar el patrón de actividad de estas ondas, pudieron reconstruir las palabras que los voluntarios escuchaban en una conversación normal. El hallazgo «es muy importante para los pacientes que tienen daños en los mecanismos del habla a causa de un accidente cerebrovascular o la enfermedad de Lou Gehrig», explica Robert Knight, profesor de Psicología y Neurociencia en Berkeley. «Si podemos llegar a reconstruir las conversaciones imaginadas a partir de la actividad del cerebro, miles de personas podrían beneficiarse». La investigación se basa en los sonidos que una persona escucha realmente, pero para utilizar esto en un dispositivo -una máquina que nos traduzca los pensamientos-, estos principios deben aplicarse a alguien que está imaginando el habla», advierte Brian N. Pasley, también investigador en Berkeley y principal autor del estudio. «Existen pruebas de que la percepción y la imaginación pueden ser muy similares en el cerebro. Si usted puede entender lo suficientemente bien la relación entre las grabaciones del cerebro y el sonido, podría sintetizar el sonido real que una persona está pensando, o simplemente escribir las palabras con algún tipo de dispositivo de interfaz». ACERTARON LA PALABRA Pasley probó dos métodos diferentes para adaptar los sonidos hablados al patrón de actividad en los electrodos. Los pacientes oían una sola palabra y Pasley utilizaba dos modelos computacionales diferentes para predecir la palabra basándose en grabaciones de los electrodos. El mejor de los dos métodos fue capaz de reproducir un sonido bastante cercano a la palabra original, hasta el punto de que el equipo podía adivinar correctamente la palabra mejor que el azar. El modelo computacional «puede reproducir el sonido del oído del paciente y reconocer la palabra, aunque no en un nivel perfecto», dice Knight. El objetivo final del estudio fue explorar cómo el cerebro humano codifica el habla y determinar qué aspectos del lenguaje son más importantes para la comprensión. «En algún momento, el cerebro tiene que extraer de fuera toda la información auditiva y mapearla en una palabra, ya que podemos entender el lenguaje y las palabras independientemente de cómo suenan», indica Pasley. «La gran pregunta es, ¿cuál es la unidad más significativa de la palabra? ¿Una sílaba o un fonema?». La investigación supone un paso más en la lucha por poder ayudar a aquellos pacientes que no pueden comunicarse con el exterior, una hazaña increíble que no está exenta de implicaciones éticas. Autor: J. de Jorge |
No hay comentarios:
Publicar un comentario