Por Daniel Kahneman.
La incapacidad de percibir que hemos cometido un error es la clave para entender por qué solemos aceptar de buenas a primeras el resultado de nuestro pensamiento intuitivo y espontáneo.
El desafío de evitar los sesgos
De acuerdo con los cientistas cognitivos, hay dos modos de pensamiento: intuitivo y reflexivo En el pensamiento intuitivo o Sistema Uno, las impresiones, asociaciones, sentimientos, intenciones y preparaciones para la acción fluyen sin esfuerzo.
El Sistema Uno produce una representación constante del mundo que nos rodea y nos permite hacer cosas como caminar, evitar obstáculos y contemplar otras cosas, todo al mismo tiempo. Solemos estar en este modo cuando nos cepillamos los dientes, bromeamos con amigos o jugamos tenis. No nos concentramos conscientemente en hacer esas cosas, sólo las hacemos.
En cambio, el pensamiento reflexivo o Sistema Dos, es lento, trabajoso y deliberado. Este modo funciona cuando llenamos una declaración de impuestos o aprendemos a manejar.
Ambos modos están activos de forma continua pero el Sistema Dos suele limitarse a monitorear las cosas. Se moviliza cuando hay mucho en juego, cuando detectamos un error obvio o cuando se requiere un razonamiento basado en reglas. Pero la mayor parte del tiempo es el Sistema Uno el que determina nuestros pensamientos.
Dado que el Sistema Uno es tan bueno creando historias contextuales y no estamos conscientes de sus operaciones, puede extraviarnos. Las historias que crea en general son precisas, pero hay excepciones.
Los sesgos cognitivos es que no tenemos cómo saber que están ocurriendo: casi nunca nos percatamos en el momento de que estamos cometiendo errores intuitivos. La experiencia no nos ayuda a reconocerlos (en cambio, si abordamos un problema difícil usando el pensamiento del Sistema Dos y no podemos resolverlo, estamos incómodamente conscientes de la situación).
La incapacidad de percibir que hemos cometido un error es la clave para entender por qué solemos aceptar de buenas a primeras el resultado de nuestro pensamiento intuitivo y espontáneo. También explica por qué, incluso cuando nos volvemos conscientes de la existencia de los sesgos, no nos entusiasma la posibilidad de eliminarlos en nosotros mismos. Después de todo, no nos resulta fácil reparar errores que no vemos.
Por extensión, esto también explica por qué los textos de los expertos en gestión sobre los sesgos cognitivos no han sido de mucha ayuda práctica. Parecen suponer que si a usted le advierten de los sesgos no sufrirá sus efectos. Pero el hecho de saber que usted puede actuar sesgadamente no basta para ayudarle a superar los sesgos.
Usted puede aceptar que tiene sesgos, pero no puede eliminarlos dentro de usted.
Tal vez no seamos capaces de controlar nuestra intuición, pero podemos aplicar nuestro pensamiento racional para detectar la intuición defectuosa de otros y mejorar su juicio (en otras palabras, podemos usar el pensamiento de Sistema Dos para detectar errores en el Sistema Uno de las recomendaciones que nos hacen otros).
Esto es precisamente lo que se espera que hagan los ejecutivos cada vez que revisan recomendaciones y toman una decisión final.
Control de calidad de las decisiones: una lista de verificación
Para ayudar a los ejecutivos a revisar decisiones, hemos desarrollado una herramienta, basada en una lista de verificación de 12 preguntas, que busca revelar defectos en el pensamiento; en otras palabras, los sesgos cognitivos de los equipos que hacen recomendaciones.
A. Preguntas que los tomadores de decisiones deberías plantearse ellos mismos:
1. ¿Existen razones para sospechar que hay errores motivados, aquellos movidos por el interés propio del equipo que da la recomendación?
Los tomadores de decisiones nunca deberían preguntar esto directamente a las personas que hacen la propuesta. Después de todo, es casi imposible hacerlo sin parecer que se está poniendo en duda su diligencia e incluso su integridad y una conversación así no puede llegar a un buen final.
El problema no es sólo el engaño intencional. Las personas a veces mienten deliberadamente, por cierto, pero el autoengaño y la racionalización son problemas más comunes. La investigación ha mostrado que incluso los profesionales que sinceramente creen que sus decisiones “no están a la venta” (como los médicos) tienen sesgos que favorecen sus propios intereses.
Ciertamente, nuestra preferencia por un resultado particular está presente en cada recomendación. Los tomadores de decisiones no deben evaluar si existe un riesgo de error motivado, sino su importancia. Una propuesta de un conjunto de individuos que como resultado busca ganar más de lo usual, ya sea en términos financieros o, más frecuentemente, en términos de poder organizacional, reputación u opciones de carrera, necesita un control de calidad especialmente riguroso.
Los revisores también deberían estar atentos a los conjuntos de opciones perniciosas que sólo incluyen una alternativa realista: aquella que prefieren quienes hacen la recomendación. En tales casos, los tomadores de decisiones deberán poner aun más atención al resto de las preguntas de las lista de verificación, particularmente aquellas concernientes a los sesgos optimistas.
2. ¿Están las personas enamoradas de la recomendación que plantean?
Todos somos víctimas de la heurísticas del afecto: cuando evaluamos algo que nos gusta, tendemos a minimizar sus riesgos y costos y a exagerar sus beneficios; cuando evaluamos algo que no nos gusta, hacemos lo contrario.
Los ejecutivos suelen observar este fenómeno en las decisiones que tiene un fuerte componente emocional, como las concernientes a empleados, marcas y lugares.
Esta pregunta también es mejor guardárselas para uno mismo pero suele ser fácil de responder.
3. ¿Hubo opiniones divergentes en el equipo que hace la recomendación?
Si las hubo, ¿fueron debidamente exploradas? En muchas culturas corporativas, los equipos que plantean recomendaciones a estratos más altos dicen estar todos de acuerdo. A veces esa unanimidad es genuina, pero también puede ser un falsa unidad impuesta por el líder del equipo o un caso de pensamiento grupal (la tendencia de los grupos a minimizar el conflicto convergiendo hacia una decisión porque ésta parece concitar apoyo).
Independientemente de su causa, la falta de disenso en un equipo que aborda un problema complejo debería detonar las alarmas. En el largo plazo, los altos ejecutivos deberían crear un clima donde los desacuerdos sustanciales sean vistos como una parte productiva de la toma de decisiones (y que sean resueltos objetivamente), más que como una señal de conflicto entre individuos (y por ello, suprimidos).
En el corto plazo, si un tomador de decisiones se enfrenta a un recomendación donde el disenso fue claramente reprimido, no le quedan muchas opciones. Dado que suele se poco práctico pedir a otro grupo que presente más opciones, la mejor elección podría ser solicitar a miembros del equipo que den sus ideas disidentes, tal vez en reuniones privadas.
Y merecen especial atención las opiniones de quienes resistieron la presión por sumarse a la mayoría cuando se tomó la decisión.
B. Preguntas que los tomadores de decisiones deberían plantear al equipo que hace las recomendaciones:
4. ¿Podría el diagnóstico de la situación estar abiertamente influenciado por analogías prominentes?
Muchas recomendaciones aluden a un caso de éxito anterior, donde el tomador de la decisión es alentado a repetirlo aprobando la propuesta.
El tomador de la decisión que sospecha que una analogía con un evento especialmente memorable ha influenciado indebidamente el criterio del equipo (un tipo de falla cognitiva como sesgo de sapiencia) querrá que el equipo explore diagnósticos alternativos. Puede hacerlo pidiendo más analogías y un análisis riguroso sobre por qué los ejemplos mostrados son realmente comparables.
5. ¿Se ha tomado en consideración más alternativas creíbles?
En un proceso de toma de decisiones bien hecho, las otras alternativas son cabalmente evaluadas de forma objetiva y basada en hechos. Pero cuando tratan de resolver un problema, tanto los individuos como los grupos tienden a generar una sola hipótesis plausible y después buscan evidencia que la respalde.
Una buena práctica es que las personas presenten al menos una o dos buenas alternativas aparte de las recomendación principal y expliquen sus pros y contras. El tomador de la decisión debería preguntar: ¿qué alternativas consideraron? ¿En qué fase las descartaron? ¿Buscaron activamente información que refutara su hipótesis central o sólo la evidencia confirmatoria que describen en su recomendación final?
6. Si tuviera que volver a decidir sobre esto en una año más, ¿qué información querría y puede obtener más de ella ahora mismo?
Un desafío que enfrentan los ejecutivos cuando revisan una recomendación es el supuesto de que “todo lo que hay está a la vista”. Dado que nuestra mente intuitiva construye una narrativa coherente basada en la evidencia que tenemos, cubriendo los hoyos existentes , tendemos a pasar por alto aquello que no está.
En muchos casos, los datos no están disponibles. Pero en algunos, se puede descubrir información útil.
Las listas de verificación que especifican qué información es relevante para cierto tipo de decisión también son útiles.
7. ¿Sabe usted de dónde vienen las cifras?
Un examen enfocado en las cifras clave tras la propuesta ayudará a los tomadores de la decisión a detectar el sesgo de anclaje. Entre las preguntas por hacer están: ¿cuáles de los números de este plan son datos y cuáles son estimaciones? ¿Se desarrollaron esta estimaciones a partir de ajustes de algún otro número? ¿Quién puso el primer número sobre la mesa?
La trampa de las anclas es que las personas siempre creen que pueden librarse de ellas pero lo cierto es que no pueden. En un escenario ficticio, por suerte, a los jueces a quienes se les pide que lancen los dados antes de dictar una sentencia ciertamente dirán que los dados no influyeron en su decisión pero el análisis de sus veredictos dice que sí lo hicieron.
Cuando una recomendación parece anclada a una referencia inicial y la cifra en cuestión tiene un impacto real, el tomador de la decisión debería pedir que el equipo ajuste las estimaciones de su propuesta tras hacer algo de reanclaje.
8. ¿Puede usted ver un efecto halo?
Este efecto opera cuando una historia nos parece más simple y emocionalmente coherente de lo que realmente es. Como muestra Phil Rosenzwig en su libro The Halo Effect, esto nos hace atribuir los éxitos y fracasos de las firmas a las personalidades de sus líderes.
Las empresas consideradas “excelentes” suelen estar rodeadas por un halo. Una vez que un experto las cataloga de esa manera, las personas tienden a asumir que todas sus prácticas deben ser ejemplares.
Una buena práctica relativamente simple es evaluar primero la relevancia de la comparación (“¿Qué hay de comparable en este caso con el nuestro?”) y después pedir al grupo que presente otros ejemplos de empresas menos exitosas (“¿Qué otras empresas en nuestro sector invirtieron en un sector a la baja y cómo les fue?”)
9. ¿Están las personas que hacen la recomendación demasiado atadas a decisiones anteriores?
Las empresas no empiezan de cero cada día. Su historia y lo que han aprendido de ella, sí importan. Pero la historia puede extraviarnos cuando evaluamos opciones en referencia a un punto de partida del pasado y no del futuro.
La consecuencia más visible es la falacia del costo hundido: cuando consideramos nuevas inversiones, deberíamos ignorar los gastos pasados que no afectan los costos e ingresos futuros, pero no lo hacemos.
C. Preguntas enfocadas a evaluar la propuesta:
10. ¿Se basa el caso en supuestos demasiados optimistas?
La mayoría de las recomendaciones contienen pronósticos que claramente tienden al optimismo excesivo. Uno de los factores que influye en esto es la confianza. Otro factor que suele operar es la falacia de la planificación. Este tipo de falacia surge del pensamiento de “perspectiva interna”, el que se enfoca exclusivamente en el caso en cuestión e ignora la historia de proyectos similares. Es como tratar de adivinar el futuro de una empresa sólo considerando sus planes y los obstáculos a la vista.
Un tercer factor es la incapacidad de anticiparse a las respuestas de los competidores ante una decisión.
En la mayoría de las organizaciones, todos estos sesgos son exacerbados por la inevitable interacción (y frecuente confusión) entre los pronósticos y las estimaciones por un lado y los planes y objetivos por el otro.
Los pronósticos deberían ser precisos, mientras que los objetivos deberían ser ambiciosos. Los dos conjuntos de números jamás deberían ser confundidos por la alta dirección.
Es difícil corregir los sesgos optimistas y no basta con pedir que los equipos revisen sus estimaciones. Quien toma las decisiones debe adelantarse y adoptar una perspectiva externa, en contraposición a la perspectiva interna de quienes hacen la propuesta.
11. ¿Es suficientemente malo el peor de los casos?
Cuando toman decisiones importantes, muchas empresas piden a sus equipos de estrategia que propongan una gama de escenarios, o al menos el mejor y el peor. Lamentablemente, el peor de los casos rara vez es lo suficientemente malo.
El tomador de decisiones debería preguntar: ¿de dónde salió el peor de los casos? ¿Cuán sensible es a las respuestas de los competidores? ¿Qué podría pasar y que no hemos tomado en cuenta?
Una técnica útil en estas situaciones es el “premortem”, ideado por el psicólogo Gary Klein. Los participantes se proyectan hacia el futuro, imaginando que lo peor ya ocurrió y elaborando un relato de cómo pasó.
12. ¿Es demasiado cauto el equipo que hacer la recomendación?
Por el otro lado, el conservadurismo excesivo es una fuente de bajo desempeño, poco visible pero crónico y serio, en las organizaciones. Muchos ejecutivos se quejan de que los planes de sus equipos no son lo suficientemente ambiciosos ni creativos.
Es difícil abordar este problema por dos razones. La primera y más importante es que las personas que hacen recomendaciones tienen aversión a la pérdida: cuando contemplan decisiones riesgosas, su deseo de evitar pérdidas es más fuerte que su deseo de obtener ganancias. Ningún equipo o individuo quiere ser responsable del fracaso de un proyecto. Segunda, el hecho de que muy pocas empresas deciden explícitamente el nivel de riesgo que aceptarán asumir sólo exacerba la aversión a la pérdida de sus ejecutivos.
IRADE
Instituto Regional de Administración de Empresas.
Extractado y resumido de : D. Kahneman, D. Lovallo, O. Sibony. Antes de tomar una gran decisión. HBR, junio 2011, pág.21-31
Original: The Big Idea: Before You Make That Big Decision…https://hbr.org/2011/06/the-big-idea-before-you-make-that-big-decision
- Daniel Kahneman es académico senior en Woodrow Wilson School of Public and International Affairs de Princeton University, socio de The Greatest Good, una consultora, y consultor de Guggenheim Partners. Obtuvo el Premio Nobel de Economía en 2002 por su trabajo (con Amos Tversky) sobre los sesgos cognitivos.
- Dan Lovallo (dan.lovallo@sydney.edu.au) es profesor de estrategia de negocios en University of Sydney y asesor senior de McKinsey & Company.
- Olivier Sibony (olivier_sibony@mckinsey.com) es director de la oficina de París de McKinsey & Company.
Espectacular Rafa!
ResponderEliminar