Articles

Estrategias para aprender del fracaso

La sabiduría de aprender del fracaso es incontrovertible. Sin embargo, las organizaciones que lo hacen bien son extraordinariamente escasas. Esta carencia no se debe a una falta de compromiso con el aprendizaje. Los directivos de la inmensa mayoría de las empresas que he estudiado en los últimos 20 años -empresas farmacéuticas, de servicios financieros, de diseño de productos, de telecomunicaciones y de construcción; hospitales; y el programa del transbordador espacial de la NASA, entre otras- deseaban sinceramente ayudar a sus organizaciones a aprender de los fracasos para mejorar su rendimiento futuro. En algunos casos, ellos y sus equipos habían dedicado muchas horas a las revisiones posteriores a la acción, a las autopsias y a cosas similares. Pero, una y otra vez, vi que estos minuciosos esfuerzos no conducían a ningún cambio real. La razón: Esos directivos pensaban en el fracaso de forma equivocada.

La mayoría de los ejecutivos con los que he hablado creen que el fracaso es malo (¡por supuesto!). También creen que aprender de él es bastante sencillo: Pedir a las personas que reflexionen sobre lo que hicieron mal y exhortarlas a evitar errores similares en el futuro -o, mejor aún, asignar a un equipo que revise y escriba un informe sobre lo sucedido y luego distribuirlo por toda la organización.

Estas creencias tan extendidas son erróneas. En primer lugar, el fracaso no siempre es malo. En la vida organizativa a veces es malo, a veces es inevitable y a veces incluso es bueno. En segundo lugar, aprender de los fracasos organizativos es todo menos sencillo. Las actitudes y actividades necesarias para detectar y analizar eficazmente los fracasos son escasas en la mayoría de las empresas, y se subestima la necesidad de estrategias de aprendizaje específicas para cada contexto. Las organizaciones necesitan nuevas y mejores formas de ir más allá de las lecciones superficiales («No se siguieron los procedimientos») o interesadas («El mercado no estaba preparado para nuestro nuevo producto»). Eso significa desechar las viejas creencias culturales y las nociones estereotipadas del éxito y abrazar las lecciones del fracaso. Los líderes pueden empezar por entender cómo el juego de la culpa se interpone en el camino.

El juego de la culpa

El fracaso y la culpa son prácticamente inseparables en la mayoría de los hogares, organizaciones y culturas. Todos los niños aprenden en algún momento que admitir el fracaso significa asumir la culpa. Por eso son tan pocas las organizaciones que han cambiado a una cultura de seguridad psicológica en la que se puedan aprovechar plenamente las recompensas de aprender del fracaso.

Los ejecutivos que he entrevistado en organizaciones tan diferentes como hospitales y bancos de inversión admiten estar desgarrados: ¿Cómo pueden responder de forma constructiva a los fracasos sin dar lugar a una actitud de todo vale? Si no se culpa a las personas por los fracasos, ¿qué garantizará que se esfuercen al máximo por hacer su mejor trabajo?

Esta preocupación se basa en una falsa dicotomía. En realidad, una cultura que hace que sea seguro admitir e informar sobre el fracaso puede -y en algunos contextos organizativos debe- coexistir con altos estándares de rendimiento. Para entender por qué, mire la exposición «Un espectro de razones para el fracaso», que enumera causas que van desde la desviación deliberada hasta la experimentación reflexiva.

¿Cuáles de estas causas implican acciones censurables? La desviación deliberada, primera en la lista, obviamente justifica la culpa. Pero la falta de atención podría no hacerlo. Si es el resultado de una falta de esfuerzo, tal vez sea censurable. Pero si es resultado del cansancio al final de un turno demasiado largo, el responsable que asignó el turno tiene más culpa que el empleado. A medida que descendemos en la lista, es cada vez más difícil encontrar actos culpables. De hecho, un fallo resultante de una experimentación reflexiva que genere información valiosa puede ser realmente digno de elogio.

Cuando pido a los ejecutivos que consideren este espectro y luego estimen cuántos de los fallos en sus organizaciones son realmente culpables, sus respuestas suelen ser de un solo dígito -quizás del 2% al 5%-. Pero cuando les pregunto cuántos se consideran culpables, responden (tras una pausa o una carcajada) entre el 70% y el 90%. La desafortunada consecuencia es que muchos fracasos no se denuncian y sus lecciones se pierden.

No todos los fracasos son iguales

Una comprensión sofisticada de las causas y los contextos de los fracasos ayudará a evitar el juego de la culpa y a instituir una estrategia eficaz para aprender del fracaso. Aunque un número infinito de cosas pueden salir mal en las organizaciones, los errores se clasifican en tres grandes categorías: prevenibles, relacionados con la complejidad e inteligentes.

Fallos prevenibles en operaciones predecibles.

La mayoría de los fallos de esta categoría pueden considerarse realmente «malos». Por lo general, implican desviaciones de las especificaciones en los procesos estrechamente definidos de las operaciones de alto volumen o de rutina en la fabricación y los servicios. Con la formación y el apoyo adecuados, los empleados pueden seguir esos procesos de forma coherente. Cuando no lo hacen, la razón suele ser la desviación, la falta de atención o de capacidad. Pero en estos casos, las causas pueden identificarse fácilmente y desarrollarse soluciones. Las listas de comprobación (como en el reciente best seller del cirujano de Harvard Atul Gawande The Checklist Manifesto) son una solución. Otra es el cacareado Sistema de Producción Toyota, que incorpora el aprendizaje continuo de los pequeños fallos (pequeñas desviaciones del proceso) en su enfoque de la mejora. Como la mayoría de los estudiantes de operaciones saben bien, un miembro del equipo en una línea de montaje de Toyota que detecta un problema o incluso un problema potencial se anima a tirar de una cuerda llamada cordón andon, que inicia inmediatamente un proceso de diagnóstico y resolución de problemas. La producción continúa sin impedimentos si el problema puede solucionarse en menos de un minuto. En caso contrario, la producción se detiene -a pesar de la pérdida de ingresos que conlleva- hasta que se entienda y resuelva el fallo.

Fallos inevitables en sistemas complejos.

Un gran número de fallos organizativos se deben a la incertidumbre inherente al trabajo: Una determinada combinación de necesidades, personas y problemas puede no haberse producido nunca antes. La clasificación de pacientes en la sala de urgencias de un hospital, la respuesta a las acciones del enemigo en el campo de batalla y la gestión de una empresa de rápido crecimiento se producen en situaciones imprevisibles. Y en organizaciones complejas como los portaaviones y las centrales nucleares, los fallos de los sistemas son un riesgo perpetuo.

Aunque los fallos graves pueden evitarse siguiendo las mejores prácticas de gestión de la seguridad y los riesgos, incluido un análisis exhaustivo de cualquier suceso de este tipo que se produzca, los pequeños fallos de los procesos son inevitables. Considerarlos malos no es sólo una incomprensión del funcionamiento de los sistemas complejos, sino que es contraproducente. Evitar los fallos consecuentes significa identificar y corregir rápidamente los pequeños fallos. La mayoría de los accidentes en los hospitales son el resultado de una serie de pequeños fallos que pasaron desapercibidos y que, por desgracia, se alinearon de la forma equivocada.

Fallos inteligentes en la frontera.

Los fallos de esta categoría pueden considerarse «buenos» con toda la razón, ya que aportan nuevos y valiosos conocimientos que pueden ayudar a una organización a adelantarse a la competencia y asegurar su crecimiento futuro; por eso, el profesor de gestión de la Universidad de Duke Sim Sitkin los llama fallos inteligentes. Se producen cuando la experimentación es necesaria: cuando las respuestas no se pueden conocer de antemano porque esa situación exacta no se ha dado antes y quizá nunca se vuelva a dar. Descubrir nuevos medicamentos, crear un negocio radicalmente nuevo, diseñar un producto innovador y probar las reacciones de los clientes en un mercado totalmente nuevo son tareas que requieren fracasos inteligentes. «Prueba y error» es un término común para el tipo de experimentación que se necesita en estos entornos, pero es un término erróneo, porque «error» implica que había un resultado «correcto» en primer lugar. En la frontera, el tipo correcto de experimentación produce rápidamente buenos fracasos. Los directivos que la practican pueden evitar el fracaso poco inteligente de realizar experimentos a una escala mayor de la necesaria.

Los responsables de la empresa de diseño de productos IDEO lo comprendieron cuando lanzaron un nuevo servicio de estrategia de innovación. En lugar de ayudar a los clientes a diseñar nuevos productos dentro de sus líneas existentes -un proceso que IDEO prácticamente había perfeccionado-, el servicio les ayudaría a crear nuevas líneas que les llevaran en direcciones estratégicas novedosas. Sabiendo que aún no había averiguado cómo prestar el servicio de forma eficaz, la empresa inició un pequeño proyecto con una compañía de colchones y no anunció públicamente el lanzamiento de un nuevo negocio.

Aunque el proyecto fracasó -el cliente no cambió su estrategia de producto-, IDEO aprendió de él y averiguó qué había que hacer de forma diferente. Por ejemplo, contrató a miembros del equipo con un MBA que podían ayudar mejor a los clientes a crear nuevos negocios e hizo que algunos de los gerentes de los clientes formaran parte del equipo. Hoy los servicios de innovación estratégica representan más de un tercio de los ingresos de IDEO.

Tolerar los inevitables fallos de los procesos en los sistemas complejos y los fallos inteligentes en las fronteras del conocimiento no promoverá la mediocridad. De hecho, la tolerancia es esencial para cualquier organización que desee extraer el conocimiento que tales fallos proporcionan. Pero el fracaso sigue teniendo una carga emocional inherente; conseguir que una organización lo acepte requiere liderazgo.

Construcción de una cultura de aprendizaje

Sólo los líderes pueden crear y reforzar una cultura que contrarreste el juego de la culpa y haga que la gente se sienta cómoda y responsable de sacar a la luz y aprender de los fracasos. Deben insistir en que sus organizaciones desarrollen una clara comprensión de lo que ha ocurrido -no de «quién lo hizo»- cuando las cosas van mal. Esto requiere informar sistemáticamente de los fracasos, pequeños y grandes; analizarlos sistemáticamente; y buscar proactivamente oportunidades para experimentar.

Los líderes también deben enviar el mensaje correcto sobre la naturaleza del trabajo, como recordar a la gente en R&D, «Estamos en el negocio del descubrimiento, y cuanto más rápido fallemos, más rápido tendremos éxito.» He comprobado que los directivos a menudo no entienden o aprecian este punto sutil pero crucial. También es posible que aborden el fracaso de una forma inadecuada para el contexto. Por ejemplo, el control estadístico de procesos, que utiliza el análisis de datos para evaluar las desviaciones injustificadas, no sirve para detectar y corregir fallos invisibles al azar, como los errores de software. Tampoco sirve para el desarrollo de nuevos productos creativos. A la inversa, aunque los grandes científicos se adhieren intuitivamente al lema de IDEO, «Fracasa a menudo para triunfar antes», difícilmente promovería el éxito en una planta de fabricación.

El lema «Fracasa a menudo para tener éxito antes» difícilmente promovería el éxito en una planta de fabricación.

A menudo un contexto o un tipo de trabajo domina la cultura de una empresa y da forma a cómo trata el fracaso. Por ejemplo, las empresas de automoción, con sus operaciones predecibles y de gran volumen, tienden comprensiblemente a considerar el fracaso como algo que puede y debe evitarse. Pero la mayoría de las organizaciones se dedican a los tres tipos de trabajo mencionados anteriormente: rutinario, complejo y de frontera. Los líderes deben asegurarse de que se aplique el enfoque correcto para aprender del fracaso en cada uno de ellos. Todas las organizaciones aprenden del fracaso a través de tres actividades esenciales: detección, análisis y experimentación.

Detección del fracaso

Detectar los fracasos grandes, dolorosos y costosos es fácil. Pero en muchas organizaciones cualquier fallo que se pueda ocultar, se oculta mientras sea poco probable que cause un daño inmediato o evidente. El objetivo debería ser sacarlo a la luz pronto, antes de que se convierta en un desastre.

Poco después de llegar de Boeing para tomar las riendas de Ford, en septiembre de 2006, Alan Mulally instituyó un nuevo sistema para detectar fallos. Pidió a los directivos que codificaran sus informes en verde para lo bueno, en amarillo para la precaución o en rojo para los problemas, una técnica de gestión habitual. Según un artículo publicado en 2009 en Fortune, en sus primeras reuniones todos los directivos codificaron sus operaciones en verde, para frustración de Mulally. Recordándoles que la empresa había perdido varios miles de millones de dólares el año anterior, preguntó directamente: «¿No hay nada que no vaya bien?». Tras un tímido informe amarillo sobre un grave defecto de producto que probablemente retrasaría un lanzamiento, Mulally respondió al silencio sepulcral que se produjo con un aplauso. Después de eso, las reuniones semanales del personal se llenaron de color.

Esa historia ilustra un problema generalizado y fundamental: aunque existen muchos métodos para sacar a la luz los fallos actuales y pendientes, se utilizan muy poco. La gestión de la calidad total y la solicitud de comentarios a los clientes son técnicas bien conocidas para sacar a la luz los fallos en las operaciones rutinarias. Las prácticas de organización de alta fiabilidad (HRO) ayudan a prevenir fallos catastróficos en sistemas complejos, como las centrales nucleares, mediante la detección temprana. Electricité de France, que explota 58 centrales nucleares, ha sido un ejemplo en este ámbito: Va más allá de los requisitos reglamentarios y hace un seguimiento religioso de cada planta para detectar cualquier cosa que se salga ligeramente de lo normal, investiga inmediatamente lo que aparece e informa a todas sus otras plantas de cualquier anomalía.

Estos métodos no se emplean de forma más generalizada porque demasiados mensajeros -incluso los más altos ejecutivos- siguen siendo reacios a transmitir las malas noticias a sus jefes y colegas. Un alto ejecutivo que conozco en una gran empresa de productos de consumo tenía serias reservas sobre una adquisición que ya estaba en marcha cuando se incorporó al equipo directivo. Pero, demasiado consciente de su condición de recién llegado, guardó silencio durante las discusiones en las que todos los demás ejecutivos parecían entusiasmados con el plan. Muchos meses después, cuando la adquisición había fracasado claramente, el equipo se reunió para revisar lo sucedido. Con la ayuda de un consultor, cada ejecutivo reflexionó sobre lo que podría haber hecho para contribuir al fracaso. El recién llegado, que se disculpó abiertamente por su silencio en el pasado, explicó que el entusiasmo de los demás le había impedido ser «la mofeta en el picnic»

Al investigar los errores y otros fallos en los hospitales, descubrí diferencias sustanciales entre las unidades de atención al paciente en cuanto a la disposición de las enfermeras a hablar de ellos. Resultó que la causa era el comportamiento de los mandos intermedios, es decir, cómo respondían a los fallos y si fomentaban un debate abierto sobre ellos, acogían las preguntas y mostraban humildad y curiosidad. He visto el mismo patrón en una amplia gama de organizaciones.

Un caso horrible, que estudié durante más de dos años, es la explosión del transbordador espacial Columbia en 2003, en la que murieron siete astronautas (véase «Facing Ambiguous Threats», por Michael A. Roberto, Richard M.J. Bohmer y Amy C. Edmondson, HBR noviembre de 2006). Los directivos de la NASA pasaron unas dos semanas restando importancia a la gravedad de que un trozo de espuma se hubiera desprendido del lado izquierdo del transbordador durante el lanzamiento. Rechazaron las peticiones de los ingenieros para resolver la ambigüedad (lo que podría haberse hecho haciendo que un satélite fotografiara el transbordador o pidiendo a los astronautas que realizaran un paseo espacial para inspeccionar la zona en cuestión), y el grave fallo pasó prácticamente desapercibido hasta sus fatales consecuencias 16 días después. Irónicamente, la creencia compartida pero no demostrada entre los gestores del programa de que había poco que pudieran hacer contribuyó a su incapacidad para detectar el fallo. Los análisis posteriores al suceso sugirieron que, en efecto, podrían haber tomado medidas fructíferas. Pero está claro que los líderes no habían establecido la cultura, los sistemas y los procedimientos necesarios.

Un reto es enseñar a la gente de una organización cuándo declarar la derrota en un curso de acción experimental. La tendencia humana de esperar lo mejor y tratar de evitar el fracaso a toda costa se interpone en el camino, y las jerarquías organizativas lo exacerban. Como resultado, los proyectos de I+D que fracasan a menudo se mantienen mucho más tiempo de lo que es científicamente racional o económicamente prudente. Tiramos el dinero bueno tras el malo, rezando por sacar un conejo de la chistera. La intuición puede indicar a los ingenieros o científicos que un proyecto tiene defectos fatales, pero la decisión formal de calificarlo de fracaso puede retrasarse durante meses.

De nuevo, el remedio -que no implica necesariamente mucho tiempo y gasto- es reducir el estigma del fracaso. Eli Lilly lo ha hecho desde principios de la década de 1990 celebrando «fiestas del fracaso» para honrar los experimentos científicos inteligentes y de alta calidad que no logran los resultados deseados. Las fiestas no cuestan mucho, y la reasignación de recursos valiosos -sobre todo de científicos- a nuevos proyectos antes que después puede ahorrar cientos de miles de dólares, por no hablar de la puesta en marcha de posibles nuevos descubrimientos.

Analizar el fracaso

Una vez detectado un fracaso, es esencial ir más allá de las razones obvias y superficiales para entender las causas de fondo. Esto requiere la disciplina -y mejor aún, el entusiasmo- para utilizar un análisis sofisticado que garantice que se aprenden las lecciones correctas y se emplean los remedios adecuados. La labor de los líderes es procurar que sus organizaciones no se limiten a seguir adelante tras un fracaso, sino que se detengan a indagar y descubrir la sabiduría que contiene.

¿Por qué se suele dejar de lado el análisis de los fracasos? Porque examinar nuestros fracasos en profundidad es emocionalmente desagradable y puede minar nuestra autoestima. Si se nos deja a nuestro aire, la mayoría de nosotros acelerará el análisis de los fracasos o los evitará por completo. Otra razón es que el análisis de los fracasos organizativos requiere indagación y apertura, paciencia y tolerancia a la ambigüedad causal. Sin embargo, los directivos suelen admirar y ser recompensados por la decisión, la eficacia y la acción, y no por la reflexión. Por eso es tan importante contar con una cultura adecuada.

El reto es más que emocional; también es cognitivo. Incluso sin quererlo, todos favorecemos las pruebas que apoyan nuestras creencias existentes en lugar de las explicaciones alternativas. También tendemos a restarle importancia a nuestra responsabilidad y a culpar indebidamente a factores externos o situacionales cuando fallamos, sólo para hacer lo contrario cuando evaluamos los fallos de otros -una trampa psicológica conocida como error de atribución fundamental.

Mi investigación ha demostrado que el análisis de fallos suele ser limitado e ineficaz -incluso en organizaciones complejas como los hospitales, donde hay vidas humanas en juego. Pocos hospitales analizan sistemáticamente los errores médicos o los fallos de los procesos para captar las lecciones del fracaso. Una investigación reciente en hospitales de Carolina del Norte, publicada en noviembre de 2010 en el New England Journal of Medicine, descubrió que, a pesar de una docena de años de mayor concienciación sobre el hecho de que los errores médicos provocan miles de muertes cada año, los hospitales no se han vuelto más seguros.

Afortunadamente, hay brillantes excepciones a este patrón, que siguen dando esperanzas de que el aprendizaje organizativo es posible. En Intermountain Healthcare, un sistema de 23 hospitales que da servicio a Utah y al sureste de Idaho, las desviaciones de los médicos con respecto a los protocolos médicos se analizan de forma rutinaria en busca de oportunidades para mejorar los protocolos. Permitir las desviaciones y compartir los datos sobre si realmente producen un mejor resultado anima a los médicos a participar en este programa. (Véase «Fixing Health Care on the Front Lines», por Richard M.J. Bohmer, HBR abril de 2010).

Motivar a las personas para que vayan más allá de las razones de primer orden (no se siguieron los procedimientos) y comprendan las razones de segundo y tercer orden puede ser un gran desafío. Una forma de hacerlo es utilizar equipos interdisciplinarios con diversas habilidades y perspectivas. Los fracasos complejos, en particular, son el resultado de múltiples eventos que se produjeron en diferentes departamentos o disciplinas o en diferentes niveles de la organización. Comprender lo que ocurrió y cómo evitar que se repita requiere un debate y un análisis detallados y en equipo.

Un equipo de destacados físicos, ingenieros, expertos en aviación, dirigentes navales e incluso astronautas dedicó meses a analizar el desastre del Columbia. Establecieron de forma concluyente no sólo la causa de primer orden -un trozo de espuma había golpeado el borde de ataque del transbordador durante el lanzamiento- sino también las causas de segundo orden: Una jerarquía rígida y una cultura obsesionada con el calendario en la NASA hacían especialmente difícil que los ingenieros hablaran de cualquier cosa que no fuera de las preocupaciones más sólidas.

Promover la experimentación

La tercera actividad crítica para un aprendizaje eficaz es producir estratégicamente fracasos -en los lugares adecuados, en los momentos adecuados- a través de la experimentación sistemática. Los investigadores de la ciencia básica saben que, aunque los experimentos que llevan a cabo tienen ocasionalmente un éxito espectacular, un gran porcentaje de ellos (el 70% o más en algunos campos) fracasará. ¿Cómo se levantan estas personas por la mañana? En primer lugar, saben que el fracaso no es opcional en su trabajo, sino que forma parte de la vanguardia del descubrimiento científico. En segundo lugar, mucho más que la mayoría de nosotros, entienden que cada fracaso transmite información valiosa, y están ansiosos por obtenerla antes que la competencia.

En cambio, los directivos encargados de pilotar un nuevo producto o servicio -un ejemplo clásico de experimentación en las empresas- suelen hacer todo lo posible para asegurarse de que el piloto sea perfecto desde el principio. Irónicamente, este afán de éxito puede inhibir más tarde el éxito del lanzamiento oficial. Con demasiada frecuencia, los directivos encargados de los pilotos diseñan condiciones óptimas en lugar de representativas. Así, el piloto no produce conocimiento sobre lo que no funcionará.

Demasiado a menudo, los pilotos se realizan en condiciones óptimas en lugar de representativas. Por lo tanto, no pueden mostrar lo que no va a funcionar.

En los primeros días de DSL, una importante empresa de telecomunicaciones que llamaré Telco hizo un lanzamiento a gran escala de esa tecnología de alta velocidad a los hogares de los consumidores en un mercado urbano importante. Fue un desastre sin paliativos para el servicio al cliente. La empresa incumplió el 75% de sus compromisos y se encontró con la asombrosa cifra de 12.000 pedidos atrasados. Los clientes estaban frustrados y molestos, y los representantes del servicio no podían ni siquiera empezar a responder a todas sus llamadas. La moral de los empleados se resintió. ¿Cómo pudo ocurrirle esto a una empresa líder con altos índices de satisfacción y una marca que durante mucho tiempo había sido sinónimo de excelencia?

Un pequeño y extremadamente exitoso piloto suburbano había adormecido a los ejecutivos de Telco en una confianza equivocada. El problema era que el piloto no se asemejaba a las condiciones reales del servicio: Contaba con un personal de servicio excepcionalmente amable y experto, y tenía lugar en una comunidad de clientes educados y conocedores de la tecnología. Pero la DSL era una tecnología totalmente nueva y, a diferencia de la telefonía tradicional, tenía que interactuar con los ordenadores domésticos y los conocimientos técnicos de los clientes, que eran muy variables. Esto añadía complejidad e imprevisibilidad al reto de la prestación de servicios de un modo que Telco no había apreciado del todo antes del lanzamiento.

Un piloto más útil en Telco habría probado la tecnología con un soporte limitado, clientes poco sofisticados y ordenadores viejos. Se habría diseñado para descubrir todo lo que podría ir mal, en lugar de demostrar que en las mejores condiciones todo iría bien. (Véase la barra lateral «Diseño de fracasos exitosos»). Por supuesto, los directivos a cargo tendrían que haber entendido que iban a ser recompensados no por el éxito sino, más bien, por producir fracasos inteligentes lo más rápido posible.

En definitiva, las organizaciones excepcionales son las que van más allá de detectar y analizar los fracasos y tratan de generar otros inteligentes con el propósito expreso de aprender e innovar. No es que los directivos de estas organizaciones disfruten del fracaso. Pero lo reconocen como un subproducto necesario de la experimentación. También se dan cuenta de que no tienen que hacer experimentos espectaculares con grandes presupuestos. A menudo basta con un pequeño piloto, un ensayo de una nueva técnica o una simulación.

La valentía de enfrentarse a nuestras propias imperfecciones y a las de los demás es crucial para resolver la aparente contradicción de no querer desalentar la comunicación de problemas ni crear un entorno en el que todo vale. Esto significa que los directivos deben pedir a los empleados que sean valientes y hablen, y no deben responder expresando su enfado o su fuerte desaprobación ante lo que a primera vista puede parecer una incompetencia. Más a menudo de lo que nos damos cuenta, detrás de los fracasos organizativos hay sistemas complejos, y sus lecciones y oportunidades de mejora se pierden cuando se sofoca la conversación.

Los gerentes inteligentes entienden los riesgos de la dureza desenfrenada. Saben que su capacidad para descubrir y ayudar a resolver los problemas depende de su capacidad para aprender sobre ellos. Pero la mayoría de los gerentes que he encontrado en mi trabajo de investigación, enseñanza y consultoría son mucho más sensibles a un riesgo diferente: que una respuesta comprensiva a los fracasos simplemente creará un ambiente de trabajo laxo en el que los errores se multiplican.

Esta preocupación común debería ser reemplazada por un nuevo paradigma: uno que reconozca la inevitabilidad de los fracasos en las complejas organizaciones laborales de hoy en día. Aquellos que detectan, corrigen y aprenden del fracaso antes de que otros lo hagan, tendrán éxito. Los que se regodean en el juego de la culpa no lo harán.

Una versión de este artículo apareció en el número de abril de 2011 de Harvard Business Review.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *