Iniciativas pretenden buscar una meta que pareciera de ciencia ficción: lograr que una máquina piense. Algunos parecen estar seguros de lograrlo en una década o menos.
Para mediados del año pasado, un grupo de investigadores de Google y la Universidad de Stanford anunciaron que habían alcanzado una meta importante: lograron que un computador aprendiera qué es un gato.
A primera vista suena como una tarea irrisoria, un logro casi pueril. Para que un computador reconozca un gato, bueno, se le dice qué características, qué patrones, definen a un gato y de ahí para adelante la cosa parece resultar simple.
Pero, ¿qué pasa si no se le da ningún parámetro de reconocimiento?, ¿si apenas se le bombardea con un gran cúmulo de información y de los datos emerge una suerte de consciencia acerca de qué es un gato? ¿Clasifica esto como aprendizaje, un primer paso hacia el pensamiento?
Durante años, la posibilidad de que un computador aprenda ha sido una suerte de Santo Grial para una amplia gama de profesionales que comienza en artistas y escritores y va hasta ingenieros y científicos de computadores. Más allá del apocalipsis, el exterminio de la vida a mano de las máquinas, la posibilidad de un sistema pensante constituido por silicio abre un universo de aplicaciones que arrancan por el estudio a fondo del cerebro y la corrección de desórdenes como la esquizofrenia y el Alzheimer, por ejemplo.
Pero, ¿es esto posible, al menos en el futuro cercano? Henry Markram, neurocientífico, cree que sí.
En enero de este año, Markram obtuvo más de mil millones de euros en financiación para construir una suerte de cerebro virtual, una simulación computarizada de un cerebro humano, de acuerdo con un reporte de la revista Wired. Los fondos vienen de parte de la Unión Europea y pretenden darle el músculo financiero a un proyecto que, en la visión de Markram, debe involucrar a una buena parte de la comunidad científica mundial para producir la cantidad de experimentos y datos necesarios para alimentar un modelo que, en últimas, imite un proceso de pensamiento en un computador.
La ambición de Markram es tener un modelo funcional en 10 años, una tarea que, en cierto aspecto, implicaenseñarle a pensar a una máquina para poder estudiar cómo sucede este proceso y, al mismo tiempo, detectar cómo se corrompe mediante la introducción de enfermedades.
El método de Markram, según Wired, pretender descifrar por completo la relación entre un grupo de neuronas, apenas un circuito en los millones de combinaciones existentes en un cerebro. Desde ahí, asegura el neurocientífico, es posible inferir y simular cómo se comportarían el resto de conexiones y, con estos datos, se podría construir el modelo completo en un computador.
Aunque ambos proyectos distan mucho el uno del otro en temas como escala y alcances (la iniciativa de Google y la de Markram), las dos investigaciones persiguen la idea de que la máquina piense. Una posibilidad que, vista desde cierta perspectiva, puede que ya esté presente.
Aprendiendo el contexto
Para 2002, el buscador de Google comenzó a implementar una serie de tecnologías que intentaban enseñarle al motor de búsqueda el contexto en el que las palabras son usadas. En cierto sentido, los ingenieros de la compañía encontraron la forma de que la máquina pudiera entender una palabra por el contexto en el que estaba expresada.
Esto le permitió al buscador entender que cuando alguien buscaba “perro caliente” se refería a un producto comestible y no a un cachorro en llamas, según escribe Steven Levy en su libro ‘In the plex’.
De nuevo, un logro modesto, pero fundamental, porque entender el contexto en el que se dicen las palabras es un elemento que forma parte del proceso por el cual los humanos aprenden el lenguaje. ¿Significa esto que la máquina piensa? No, dice un amplio número de científicos. Pero puede que estos sean pasos fundamentales para acercarse a ese objetivo. En su libro, Levy entrevista a un ingeniero quien sugiere que, algún día, la búsqueda de otras formas de vida no se hará afuera del planeta, sino al interior de un computador. No vida extraterrestre, sino tan sólo alienígena, incubada en un servidor, tal vez.
La búsqueda de una máquina pensante pasa por un aspecto definitivo: el manejo de los datos, la utilización de una vasta cantidad de información para alimentar algoritmos que, a la postre, puedan evolucionar y producir nuevos resultados. No se trata de generar creatividad, pero sí de respuestas anticipadas en escenarios sin patrones muy claros; escenarios como el tráfico de una ciudad.
La idea de un carro que se maneje solo parece ser hoy en día un asunto que bordea la posibilidad. En este momento hay varias iniciativas andando, literalmente, en este sentido. Pocos de estos proyectos podrían ver su implementación en el mercado masivo por cuenta del costo de los sistemas con los que operan (notablemente la iniciativa de Google, que emplea láseres para determinar la distancia entre un carro y otro, entre otras variables).
De acuerdo a un reporte de John Markoff en The New York Times, Mobileye Vision Technologies es una compañía que, utilizando cámaras y algunos algoritmos, pretende construir un vehículo automatizado por apenas una fracción del precio de sus competidores. En cierto sentido, muy rudimentario por cierto, el modelo implementado por esta empresa se asemeja al funcionamiento de la corteza visual en los humanos.
No hay comentarios:
Publicar un comentario