Métricas que deciden vs. métricas que decoran
La mayoría de dashboards ejecutivos reportan sin provocar decisiones. Qué hace que una métrica sea accionable y por qué la mayoría de los KPIs corporativos no pasan esa prueba.
Existe una prueba simple para saber si un indicador es útil: muéstralo a quien debe tomar la decisión y observa si hace algo diferente en los siguientes 30 minutos. Si el indicador se lee, se asiente con la cabeza y se pasa al siguiente slide, no es una métrica de decisión — es decoración. La mayoría de los dashboards ejecutivos en organizaciones latinoamericanas están llenos de indicadores que nadie usa para decidir, pero que todos revisan porque el ritual de revisión se confunde con el acto de gestionar.
El problema no es técnico. Las herramientas de visualización — Power BI, Tableau, Looker, incluso Excel bien estructurado — pueden mostrar cualquier dato en cualquier formato. El problema es que la mayoría de las organizaciones construyen sus tableros de control respondiendo a la pregunta equivocada. La pregunta que orienta la construcción del dashboard es típicamente “¿qué información necesitamos ver?” cuando debería ser “¿qué decisiones necesitamos tomar con mayor frecuencia y qué datos cambiarían esas decisiones?”
Kaplan y Norton (1996), en el trabajo original del Balanced Scorecard, establecieron un principio que sus propios seguidores frecuentemente ignoran: los indicadores deben conectarse causalmente con los resultados estratégicos. Un indicador que no tiene una hipótesis explícita de cómo afecta al resultado que importa es un indicador huérfano — consume atención pero no genera acción. En la práctica, la mayoría de los Balanced Scorecards implementados en la región son colecciones de indicadores agrupados en cuatro perspectivas sin conexión causal verificable entre ellos. Se presentan juntos, pero no funcionan como sistema.
Few (2009), en “Now You See It,” argumentó que la visualización de datos efectiva no se trata de hacer gráficos bonitos sino de hacer visibles los patrones que importan para la decisión. Un gráfico de barras que muestra ventas mensuales sin una línea de referencia que indique qué nivel activa una intervención no es una herramienta de decisión — es una foto del pasado. La diferencia entre reportar y decidir es precisamente esa: el reporte muestra lo que pasó; la métrica accionable muestra lo que pasó, contra qué estándar, y qué significa para la próxima acción.
Las características que distinguen a una métrica accionable de una decorativa no son arbitrarias. La primera es que tiene un umbral explícito — un valor que, al ser cruzado, activa una respuesta definida. Si la métrica de rotación de personal supera el 15% trimestral, se activa una revisión de causas con los gerentes de las áreas más afectadas. Sin umbral, el indicador se lee y se comenta (“la rotación subió un poco”) pero no dispara acción. La segunda característica es que tiene un dueño identificado — una persona que es responsable no solo de reportar el número sino de actuar cuando el umbral se cruza. Los indicadores que pertenecen a “toda la organización” en la práctica no pertenecen a nadie. La tercera es frecuencia adecuada — una métrica que se actualiza mensualmente no puede gobernar un proceso que requiere intervención semanal, y una que se actualiza diariamente para un proceso que opera en ciclos trimestrales genera ruido que erosiona la atención.
Drucker (1954) popularizó la idea de que “lo que se mide se gestiona,” pero la frase completa — y la menos citada — incluye la advertencia de que medir lo incorrecto produce gestión perversa. Las organizaciones que miden utilización del personal (horas asignadas sobre horas disponibles) como indicador de eficiencia descubren que el indicador incentiva mantener a todos ocupados, no producir resultados. Las que miden cantidad de proyectos completados descubren que el indicador incentiva fragmentar proyectos grandes en muchos pequeños para inflar el conteo. Goodhart (1975) formalizó esta observación: cuando una medida se convierte en objetivo, deja de ser una buena medida. La implicación práctica es que el diseño de métricas no puede delegarse al equipo de BI sin participación de quienes entienden las dinámicas de comportamiento que los indicadores van a incentivar.
El fenómeno del “dashboard theater” — la práctica de revisar tableros en reuniones ejecutivas como performance ritual más que como herramienta de decisión — tiene raíces organizacionales profundas. En muchas empresas, la reunión de revisión de indicadores cumple una función social: demuestra que la gerencia “está al tanto,” permite visibilizar problemas sin la obligación de resolverlos en ese momento, y genera la sensación de control que la complejidad organizacional amenaza. Pfeffer y Sutton (2000), en “The Knowing-Doing Gap,” documentaron que la brecha entre saber qué hacer y hacerlo es persistente, y que las organizaciones frecuentemente sustituyen la acción con la presentación de información sobre la acción necesaria.
En sectores regulados — banca, seguros, energía — el problema se amplifica porque los requerimientos regulatorios generan obligaciones de reporte que consumen capacidad de producción de indicadores sin contribuir a la gestión interna. Un banco que produce 200 indicadores para cumplir con los requerimientos de la superintendencia no está necesariamente mejor gestionado que uno que produce 20 indicadores internos orientados a decisión. Pero el volumen de reportes regulatorios crea la ilusión de rigor medible, y las áreas de negocio asumen que si el regulador está satisfecho con los datos, la gestión interna también debería estarlo. Son problemas distintos que comparten infraestructura pero no propósito.
La construcción de un sistema de métricas accionable requiere un proceso que pocas organizaciones ejecutan: empezar por las decisiones, no por los datos. El punto de partida es un inventario de las decisiones recurrentes que los ejecutivos toman — decisiones de asignación de recursos, priorización de proyectos, intervención en problemas operativos, ajuste de precios, respuesta a cambios regulatorios. Para cada decisión, la pregunta es qué información cambiaría la calidad o velocidad de esa decisión. Solo los datos que responden a esa pregunta merecen convertirse en indicadores activos. Todo lo demás puede existir en reportes de referencia, disponibles bajo demanda pero no ocupando espacio en la reunión ejecutiva.
Marr (2015), en “Key Performance Indicators,” propuso una prueba de relevancia que es útil en la práctica: si no puedes articular en una oración qué harías diferente dependiendo de si el indicador sube o baja, el indicador no merece espacio en tu tablero. Esta prueba es sorprendentemente efectiva para depurar dashboards inflados. Cuando se aplica a los 40 indicadores típicos de una revisión mensual ejecutiva, rara vez sobreviven más de 12 — y frecuentemente menos de 8. El resto son indicadores “nice to know” que consumen atención sin producir decisión.
El rediseño de un sistema de métricas en una organización existente enfrenta resistencias que no son técnicas. Las áreas que producen indicadores tienen incentivos para mantenerlos — cada indicador eliminado es una reducción percibida en la importancia del área que lo produce. Los gerentes que han construido sus narrativas de desempeño alrededor de ciertos indicadores resisten cambios que hacen obsoleta esa narrativa. El equipo de BI que invirtió semanas en construir visualizaciones complejas tiene un sesgo natural hacia preservar su trabajo. Estas dinámicas políticas alrededor de la medición son rara vez discutidas en la literatura de Business Intelligence, que trata la construcción de indicadores como un problema técnico cuando en la práctica es un problema de poder.
Hay una pregunta que toda organización debería hacerse periódicamente y que casi ninguna se hace: ¿cuánto cuesta nuestro sistema de medición? No el costo de las licencias de software — ese es el menor de los costos. El costo real incluye las horas de trabajo dedicadas a producir, validar, formatear y presentar indicadores, multiplicadas por la frecuencia de reporte, más el costo de oportunidad de la atención ejecutiva dedicada a revisar indicadores que no cambian decisiones. En organizaciones grandes, este costo acumulado puede representar el equivalente a varios empleados de tiempo completo cuyo trabajo es generar información que nadie usa para decidir.
La paradoja es que las organizaciones que más indicadores producen son frecuentemente las que peor deciden — no a pesar de los indicadores sino a causa de ellos. El volumen de información crea la ilusión de que las decisiones están fundamentadas en datos cuando en realidad están fundamentadas en el subconjunto de datos que confirma la intuición previa del decisor. El sesgo de confirmación opera con mayor eficacia cuando hay más datos disponibles porque siempre es posible encontrar un indicador que justifique la decisión que ya se quería tomar.
La solución no es más datos ni mejores gráficos. Es disciplina de diseño: menos indicadores, mejor conectados con decisiones específicas, con umbrales explícitos, dueños identificados y consecuencias reales cuando los umbrales se cruzan. Un tablero ejecutivo de 8 indicadores bien diseñados que disparan acción produce más valor que un sistema de 200 indicadores que producen reuniones. La diferencia no es de tecnología — es de claridad sobre para qué se mide.
Referencias
- Drucker, P. F. (1954). The Practice of Management. Harper & Row.
- Few, S. (2009). Now You See It: Simple Visualization Techniques for Quantitative Analysis. Analytics Press.
- Goodhart, C. A. E. (1975). Problems of monetary management: The U.K. experience. Papers in Monetary Economics, Reserve Bank of Australia, 1.
- Kaplan, R. S., & Norton, D. P. (1996). The Balanced Scorecard: Translating Strategy into Action. Harvard Business School Press.
- Marr, B. (2015). Key Performance Indicators: The 75 Measures Every Manager Needs to Know. Pearson.
- Pfeffer, J., & Sutton, R. I. (2000). The Knowing-Doing Gap: How Smart Companies Turn Knowledge into Action. Harvard Business School Press.