sábado, 1 de agosto de 2015

Cuando muchos cocineros pueden estropear el caldo

http://bloginteligenciacolectiva.com/cuando-muchos-cocineros-pueden-estropear-el-plato/ 
Posted by  

SONY DSCHe explicado en otras entradas de este blog que la viabilidad de los procesos colectivos es más incierta de lo que suele admitirse. Por ejemplo, no hay muchos casos de éxito de Inteligencia Colectiva (IC) “colaborativa” a gran escala, más allá de la Wikipedia, Linux y algunos más. Si revisamos con detenimiento el inventario de proyectos de la P2P Foundation, o el listado de ejemplos de IC que cita la Wikipedia, es sorprendente constatar que la gran mayoría de esas iniciativas cerraron, ya no existen, porque fueron insostenibles a medio o largo plazo. Dos de las causas principales que explican esas altas tasas de fracaso son la escasa participación o, en el otro extremo, el brutal aumento de los costes de coordinación y de gestión que se derivan de un fuerte escalado en el número de participantes.
Lo que está por ver es si ese déficit es estructural, irresoluble, o si responde a un problema de diseño que puede resolverse con fórmulas creativas, un tema que ocupa el interés central de mi investigación como parte del libro que estoy escribiendo.
Los proyectos colectivos, a medida que crecen en escala, pueden volverse inmanejables debido a los enormes desgastes que implica su gestión. Es común escuchar críticas del tipo es bonito, pero inviable o demasiados cocineros estropean el plato para subrayar los problemas de eficiencia que suelen darse en iniciativas abiertas a la participación de mucha gente. A la actriz Marlene Dietrich le atribuyen la famosa frase de: Si quieres que algo se haga, encárgaselo a una persona; si no, encárgaselo a un comité, que apunta a la misma idea de lo poco eficaces que pueden ser a veces las dinámicas colectivas.
Mi experiencia de participar en procesos de este tipo me dice que a más participantes, más se tiende al caos, y más ingobernables se vuelven los mecanismos de coordinación. Esto no sería invalidante per se si se consiguieran aflorar patrones de emergencia que introduzcan orden a un coste relativamente bajo, pero a menudo eso no ocurre, y el aumento de la complejidad producto del escalado ralentiza las decisiones y genera un sobrecoste en la gestión que no es fácil de asumir por los equipos promotores.
Un primer problema de base es la sobrecarga informativa que produce el efecto combinado del aumento significativo de participantes con el patrón de Publica-luego-Filtra.  Muchas personas contribuyendo sin filtros previos generan tal sobreabundancia de ideas que puede exceder la capacidad de la comunidad para gestionarlas de un modo eficaz y operativo. Esto se traduce en un sobre-esfuerzo para separar el grano de la paja, el ruido de la melodía, y también para competir por la atención en un contexto donde a menudo la conversación se vuelve un griterío imposible de seguir.
Otra dificultad radica en cómo articular mecanismos de agregación que faciliten la convergencia de ideas y propuestas en grupos donde hay un exceso de diversidad o donde los datos que hay que integrar son muy complejos y heterogéneos. La falta de un marco de referencia común para la reflexión colectiva (“praxis común”) puede volver imposible cualquier esfuerzo de agregación, generando un enorme desgaste entre los participantes.
Es evidente que los modelos de autogestión, donde se toman las decisiones colectivamente, pueden ser menos fluidos, más lentos y más costosos que los estructurados en torno a un liderazgo vertical y claro. El trabajo en red se vuelve, a veces, demasiado laxo, como si la gente necesitara contenedores más orgánicos para trabajar dentro de unos plazos, costes y calidades. En escenarios como esos siempre aflora la misma pregunta, y es si necesitamos “cabezas visibles” o un “núcleo duro” de personas que empujen el carro, con una autoridad mayor que el resto, para acelerar los procesos a un ritmo que sea sostenible.
Las exigencias de legitimidad en los mecanismos directos, donde se busca la máxima participación y transparencia, también pueden significar una losa para la agilidad. Si los mecanismos de búsqueda de consenso son muy rígidos, el resultado puede ser de parálisis; una situación que nos suena familiar a los que hemos vivido experiencias colectivas agotadoras, con asambleas interminables y tediosas, en las que nunca se llegaba a nada que fuera concreto o eficaz para cambiar cosas a su debido tiempo.
Es cierto que las nuevas tecnologías, y sobre todo las aplicaciones de software social, están reduciendo los costes de coordinación para el trabajo colaborativo de grandes grupos, perotodavía no es tan sencillo como suele decirse, y seguimos estando muy lejos de poder canalizar estos procesos con la eficiencia que merecen. Por ejemplo, si las tareas del proyecto tienen fuertes inter-dependencias, o sea, no es fácil dividirlas en piezas independientes que puedan ser realizadas en paralelo por grupos pequeños o de forma individual, entonces hay que activar lógicas de colaboración más intensivas, lo que resulta más complicado en colectivos grandes.
Algunos que defienden vehemente los modelos colectivos no suelen encajar bien estas dudas tan razonables, y ni siquiera reconocen que exista un “problema de eficiencia”. Según ellos, el fallo de fondo es pretender exigirle a las redes lo mismo que a los modelos convencionales de gestión que se proponen desde el Management. Su argumento es que la IC se mueve con criterios diferentes, y reclaman un reajuste en las expectativas de eficiencia y agilidad que nos hacemos con estos procesos para que se respete su naturaleza.
Tienen razón en advertir esa diferencia, y en criticar la tentación “eficientista” que a veces pone en riesgo la viabilidad de los proyectos colectivos. También en hacernos ver que el proceso es tan importante como el resultado, y que tiene valor en sí mismo aunque implique más lentitud. Pero se equivocan obviando que existe un umbral mínimo de expectativas en términos de tiempo y esfuerzo que la gente está dispuesta a aceptar.  Si algo no es mínimamente eficiente, resulta inviable, y entonces no nos vale. La coordinación entre decenas o cientos de inteligencias individuales debe lograrse a un coste asumible y equiparable a los beneficios esperados. No entender esto, o menospreciar la eficiencia, es a todas luces un error.
En este análisis habría que distinguir entre distintos tipos de proyectos colectivos según el grado de dificultad organizativa que demandan. No es lo mismo si el trabajo en red sólo se plantea como objetivo el aprendizaje común y el intercambio de información a si son iniciativas de más impacto, donde hay que pasar de la reflexión a la acción. Los requerimientos de coordinación en ambos casos son distintos.
Por ejemplo, las llamadas “comunidades de producción” (“Collaborative models of Production”, les llama Benkler) tienen que generar valor, producir con una determinada eficiencia y satisfacer a unos clientes/usuarios dentro de unas exigencias que son altas. En estos casos, como diceRamón Sangüesa, estabilizar las redes como organizaciones de producción es dificilísimo, porque los fallos de eficiencia se notan más cuando hay que tomar decisiones y generar resultados con impacto.
Es más fácil charlar y compartir (que de hecho, tampoco lo es tanto), que actuarcolaborativamente. En el fondo es un problema de costes del esfuerzo de agregar preferencias.La comunidad tiene que madurar mucho, y organizarse mejor, para poder traducir la reflexión en acción. Muchas iniciativas no pasan de charlar porque la complejidad de generar una estructura para la acción colectiva les supera.
Visto lo visto, cocer un caldo entre cientos o miles de cocineros necesita de una coordinación muy fina, algo que por cierto, ha sabido conseguir la Wikipedia con un diseño de interacciones calibrado al detalle.
Nota: La imagen del post pertenece al album de Lanpernas Dospuntozero en Flickr

No hay comentarios:

Publicar un comentario