La falacia de la toma de decisiones fundamentadas en datos.

Sure! Here’s a rewritten version of the content:


Desde RomanSpace, México

La falacia de la objetividad numérica

Durante más de dos décadas, he estado inmerso en sectores que toman decisiones en condiciones de incertidumbre: crédito corporativo, factoraje, valoración de empresas, mercados bursátiles, estructuración de OPIs y seguros. A pesar de que los mercados, productos y sistemas evolucionan, las fallas estructurales persisten de manera casi reconfortante. Esto no es solo un desafío sectorial ni tecnológico, sino una cuestión de abordaje.

En las últimas décadas, se ha consolidado una poderosa creencia cultural, popularizada incluso por el cine desde *Moneyball*: que los números han suplantado la intuición y que los datos han disciplinado el juicio. Aunque la narrativa es atractiva y funcional, está incompleta. Lo que rara vez se menciona es el tipo de número y la clase de intuición que realmente están en juego.

En la práctica del riesgo, hay un fenómeno diferente. Las intuiciones humanas —referentes a personas, culturas organizacionales o la viabilidad de un negocio— se transforman en cifras. Scores, semáforos, matrices. Este proceso, conocido y, por ende, tranquilizador, es especialmente cómodo para quienes no deben justificar el resultado. Una vez que estas opiniones son cuantificadas, adquieren la consideración de datos objetivos y empiezan a funcionar como si describieran la realidad en lugar de interpretarla. La cifra ordena, decide y absuelve con la misma naturalidad.

Esta es la distorsión central del riesgo contemporáneo: no tanto la confusión entre lo que es y lo que se piensa, sino entre decidir y justificar. El número ya no se usa como herramienta de análisis, sino como un cierre anticipado de la argumentación. La decisión se adopta antes de ser reflexionada y, una vez tomada, requiere pocas explicaciones. El sistema no comete errores; simplemente deja de formular preguntas.

Cuando la opinión se disfraza de dato

A lo largo de los años, se ha repetido en escuelas de negocios, consejos y presentaciones corporativas una consigna tranquilizadora: los números corrigen los sesgos de la intuición. Esta idea ha quedado arraigada en el imaginario colectivo, especialmente con la proyección de *Moneyball*: el dato objetivo desbanca al cazador de talentos que actúa con corazonadas y mitos. La interpretación fue simple y seductora: menos opinión, más número; menos relato, más evidencia. Una fórmula bastante elegante que rara vez requería mayor precisión.

El problema es que esta moraleja se importó acríticamente al campo del riesgo. Se asumió que cuantificar era sinónimo de objetivar. Que simplemente asignar un valor transformaba una interpretación en un dato. Y aquí nació la confusión, no como un error técnico, sino como un hábito de pensamiento.

En *Moneyball*, el éxito del número radica en que mide algo tangible en el campo. El porcentaje de veces que un jugador llega a base no es una interpretación psicológica, sino un hecho observable y verificable. La película no elimina el juicio experto, sino que elimina una forma primitiva y cómoda de opinión que se disfrazaba de experiencia sin reconocerse como tal.

Aquí aparece una distinción que a menudo se ignora en el riesgo moderno, pero es crucial para entender el fenómeno: no son lo mismo una afirmación y un juicio.

Una afirmación describe un hecho observable: es verificable y no admite discusión. “La empresa tuvo tres incumplimientos de pago en cinco años.” “El equipo tiene más de veinte años.” Un juicio, por otro lado, es una interpretación de ese hecho: “La empresa aprendió de esos incumplimientos.” “El equipo está bien mantenido.” Un juicio puede ser razonable, pero no es un dato; es una hipótesis que debe estar abierta a revisión.

En *Moneyball*, los números funcionan porque se apoyan en afirmaciones. En cambio, en el riesgo corporativo, sucede lo opuesto. No se intercambia un prejuicio por un hecho; se intercambia un juicio por cifras. Lo que antes se expresaba sutilmente —“confío en este gerente”, “este cliente siempre responde”, “esta operación es crucial”— se convierte ahora en un score o un color. Cambia el lenguaje, pero la sustancia permanece. La opinión no desaparece; se vuelve opaca.

De esta forma, la cifra ya no cumple la función de revelar regularidades ocultas, sino que las sustituye. El número no describe el juego, sino la confianza del evaluador. Y una vez que esa confianza se expresa como dato, adquiere un privilegio peligroso: deja de discutirse. Nadie cuestiona un 7.4 como lo haría con una frase como “me parece un buen operador.” El número no refuta; cierra el debate.

A veces, los comités son conscientes de esto, aunque no siempre lo admitan. La discusión avanza hasta que alguien mira la pantalla y sentencia: “el score está dentro de rango.” A partir de ese instante, los argumentos ya no buscan entender el riesgo, sino alinearse con el número. El resultado, que supuestamente debería disciplinar la subjetividad, termina siendo un refugio. No decide mejor; decide sin dejar rastros.

De esta manera, ocurre una transformación central. En *Moneyball*, medir lo que importa, aunque resulte incómodo, se convierte en un acto de honestidad. En la práctica del riesgo, se transforma en un gesto institucional de comodidad. El dato deja de ser una herramienta para vislumbrar la realidad y se convierte en un artefacto para ignorar lo que sigue siendo difícil de verbalizar.

La paradoja es clara: cuanto más sofisticados son los sistemas de scoring, más fácil se vuelve ocultar viejas intuiciones, ahora blindadas por una aparente objetividad. La organización cree haber superado la mera opinión, cuando en realidad solo ha matematizado el problema. Esta es la antesala de la alucinación cuantitativa: no cuando el número falla, sino cuando tranquiliza.

Cuando el sistema aprende a olvidar
(Del juicio codificado a la excepción normalizada)

El efecto más dañino de confundir afirmaciones y juicios no se manifiesta en la decisión misma, sino después, cuando algo sale mal. En una pérdida, un siniestro o un incumplimiento, la organización intenta reconstruir su razonamiento y descubre algo inquietante: el sistema decidió, pero ya no recuerda por qué. Olvida quién tomó la decisión, desde qué base y bajo qué suposiciones. Solo recuerda que decidió.

Este olvido no es casual. Es el resultado directo de un mecanismo que se presenta como razonable. Diseñado, paradójicamente, para reducir la incertidumbre. El problema es que en este proceso se elimina algo más frágil y valioso que el riesgo mismo: la memoria de la decisión. No es un fallo técnico, sino un déficit de memoria institucional cuidadosamente normalizado.

El proceso comienza con una evaluación cualitativa. Un analista, suscriptor o comité emite un juicio sobre aspectos no físicos ni directamente medibles: calidad de gestión, cultura operativa, fiabilidad del cliente, alineación de incentivos. Ese juicio se expresa en categorías comprensibles y aparentemente inofensivas: muy bueno, bueno, regular, malo, muy malo. Lenguaje común que todos comparten. Hasta este momento, no hay engaño; todos saben —al menos implícitamente— que es una opinión experta. Nadie confunde esto con un hecho.

El problema surge en el siguiente paso. No cuando se evalúa, sino cuando se intenta implementar esa evaluación. Cuando el juicio debe ingresar al sistema.

Para hacer que esa opinión sea “operacional”, el sistema la convierte en números:

Muy bueno = 5

Bueno = 4

Regular = 3

Malo = 2

Muy malo = 1

A veces el rango es más sofisticado o se presenta en forma de porcentajes, ponderaciones o índices compuestos. Da igual. El gesto es siempre el mismo y raramente se discute: una interpretación se codifica como una magnitud. En ese acto, el juicio pierde su naturaleza. Deja de ser una hipótesis formulada por alguien bajo ciertos criterios y comienza a circular como un dato comparable y promediable. El sistema gana eficiencia, pero pierde contexto.

Este fenómeno es transversal a diversos registros culturales. Ocurre al evaluar una planta nuclear mediante escalas “cualitativas”, al mencionar constelaciones familiares en terapia o cuando una agencia calificadora asigna una nota de riesgo. Los lenguajes cambian —ingeniería, espiritualidad o finanzas— pero el mecanismo es el mismo. La opinión se convierte en número y reclama la autoridad del hecho. No porque lo sea, sino porque ahora parece serlo.

Al convertirse en cifra, la opinión se introduce en el sistema junto con hechos de otra naturaleza. Para el algoritmo, el panel de control y el comité, todos son inputs. El porcentaje de cartera vencida de un banco, un dato contable, verificable e indiscutible, convive con la calificación del “clima organizacional” de una empresa, expresada también como número. Ambos están alineados en la misma tabla, ponderados por igual, como si pertenecieran al mismo plano de realidad. Como si requirieran el mismo tipo de cautela.

Aquí se produce la mutación decisiva: la opinión adquiere la apariencia de un hecho. No porque cambie su esencia, sino porque el sistema ha dejado de distinguirla.

El número no solo simplifica; despersonaliza. Ya no importa quién evaluó, con qué experiencia, bajo qué estándares o con qué incentivos. El sistema conserva el resultado, pero elimina la autoría. Lo que era un juicio en un contexto se convierte en un atributo del objeto evaluado. No parece algo producido por alguien; parece una realidad objetiva. El riesgo deja de ser interpretado y se pasa a administrar.

Cuando, meses después, ocurre un evento adverso y se revisa el expediente, lo único que se muestra es el score final o la puntuación consolidada. Ha desaparecido cualquier rastro del juicio —quién lo emitió, qué observó, qué consideró—. El sistema no puede distinguir si el problema fue la realidad del activo o el optimismo del evaluador. Ambos se han fusionado en la misma cifra. La pregunta adecuada ya no puede formularse porque el lenguaje necesario fue eliminado anteriormente.

Esto es la amnesia institucional en su forma más pura: no olvidar hechos, sino decisiones.

En este escenario, la inteligencia artificial entra en juego, no como una ruptura, sino como una culminación. Los sistemas de riesgo crediticio o de siniestros basados en IA no observan el mundo de forma neutral, sino que aprenden de estas categorías ya codificadas. Aprenden a anticipar futuros comportamientos a partir de juicios pasados convertidos en datos. La promesa es tentadora: objetivar la intuición, eliminar el sesgo humano y transformar la experiencia acumulada en predicción.

Sin embargo, lo que la IA realmente logra es estabilizar ese gesto inicial. No sustituye el juicio; lo fija. No elimina la opinión; la generaliza. Las evaluaciones que antes se realizaban con dudas y responsabilidad ahora se proyectan como probabilidades, scores o alertas tempranas. El sistema no dice “esto fue evaluado de esta manera”; dice “esto es así”. La opinión ya no aparece como una interpretación contextualizada, sino como una propiedad anticipada del objeto.

La IA no solamente automatiza el juicio; lo deshistoriciza. Elimina las condiciones bajo las que fue elaborado y lo presenta como una regularidad objetiva. Allí donde antes había una hipótesis generada por alguien, ahora hay una predicción respaldada por un modelo. Cuanto más preciso parece el número, más fácil resulta olvidar que lo que se anticipa no es un hecho futuro, sino la repetición sistemática de criterios previos. Esto mismo sucede a menudo con los sistemas de medición en tiempo real, que suelen presentarse como antidotos contra el rezago y la interpretación. La actualización continua no corrige el problema; lo acelera. La inmediatez refuerza la ilusión de objetividad, pero no reconstituye contexto ni memoria. El juicio sigue presente, pero ahora circula sin latencia.

Esta ilusión de anticipación actúa como una simulación de certeza. El sistema no descubre el riesgo; lo reproduce más rápidamente y con menor fricción narrativa. Y en ese proceso, el juicio deja de ser reconocible incluso para quienes diseñaron el sistema.

Este olvido habilita la siguiente transformación.

Cualquier organización que toma decisiones en condiciones de incertidumbre convive con excepciones. No hay portafolio real sin casos que se desvíen de lo normal. El problema no es la existencia de excepciones, sino cómo el sistema aprende a tolerarlas sin nombrarlas ni asumirlas.

Cuando finalmente ocurre una pérdida significativa, la revisión posterior generalmente concluye de manera cómoda: “el riesgo cumplía los criterios al momento de la aprobación”. Y es cierto, cumplía con criterios que ya habían sido erosionados por un sistema que primero aprendió a olvidar y luego a aceptar lo que no podía justificar.

En este punto, la excepción deja de ser una herramienta de flexibilidad y se transforma en un método de gobierno implícito. No se elige romper la regla; se elige no verla. Y cuando la excepción deja de ser visible, también deja de ser controlable.

Gobernar no es calcular
(Decisión, poder y la ilusión contemporánea de certeza)

Lo anterior converge en un punto incómodo: el problema no es técnico, sino político. No en el sentido partidario, sino en el sentido profundo de quién decide, bajo qué hipótesis y con qué capacidad real de asumir las consecuencias. Lo demás —modelos, métricas, herramientas— viene después, aunque a menudo se presente como lo prioritario.

Los sistemas de scoring y dashboards no eliminaron la política de la decisión; la desplazaron. La sacaron del ámbito visible del conflicto —donde alguien argumenta y asume— y la reubicaron en un terreno aparentemente neutro, donde el resultado “emerge” de un cálculo. La cifra no gobierna; hace innecesario preguntar quién lo hace.

En esta transformación, la tecnología no fue simplemente un acelerador operativo. Introdujo una ilusión de cierre. Donde antes existían zonas de duda, ahora aparecen números. Donde antes el sistema debía admitir “no sabemos”, ahora ofrece una estimación. La incertidumbre no desaparece; se presenta de mejor manera y suele ser suficiente.

La inteligencia artificial no elimina sesgos; los perfecciona. Cuando los datos son incompletos —y siempre lo son— los modelos no se detienen; completan. Interpolan, infieren, suavizan. Donde había un vacío incómodo, ahora aparece una predicción plausible, acompañada de decimales.

El sistema no aclara que opera por inferencia. Presenta el resultado con la misma certeza que un dato observado. La diferencia entre lo medido y lo estimado se vuelve irrelevante para quien recibe el número. Así se crea un nuevo y peligroso espacio: un espacio de certezas simuladas, donde la duda no desaparece, pero deja de ser visible.

No hace falta ser un experto para notar las consecuencias. El problema no son los “cisnes negros” como eventos totalmente imprevisibles. El problema es más básico y recurrente: decisiones cotidianas basadas en supuestos que el sistema ya no reconoce como tales. Los desastres raramente ocurren como sorpresas; suelen ser el resultado acumulado de pequeñas concesiones tranquilizadas por números, que son imposibles de reconstruir después porque nadie recuerda qué se estaba asumiendo.

Cuando algo sale mal, la respuesta tiene siempre la misma forma: “con la información disponible en ese momento, la decisión era correcta”. Tal vez lo fue. Pero lo que ya no existe es la memoria de qué se consideró información, qué fue inferencia y qué fue apuesta. El modelo “indicaba” que era razonable, y el sistema “lo aceptaba”. Nadie decidió; el cálculo tomó la decisión. Y una resolución sin autor suele ser muy conveniente.

Así, el gobierno se vacía de contenido. Gobernar deja de ser manejar el conflicto entre hechos, hipótesis e incertidumbre, y pasa a ser gestionar resultados. No se discuten supuestos; se ajustan límites. No se plantean apuestas; se confía en que el sistema “ya lo había considerado”. La responsabilidad se diluye en una arquitectura que nadie controla completamente y, por ende, se vuelve incuestionable.

El contraste cultural con *Moneyball* ayuda a cerrar el ciclo. La película nunca prometió eliminar la incertidumbre. Hizo algo más desafiante y honesto: la delimitó. Midió lo que realmente sucedía en el campo y dejó visibles lo que quedaba fuera del modelo. La apuesta era explícita porque el límite también lo era. Si fracasaba, se sabía por qué. El sistema podía aprender porque recordaba qué había decidido y bajo qué premisa.

Eso es lo que se pierde cuando gobernar se confunde con calcular. No la capacidad de anticipar eventos extremos, sino algo más básico y político: la posibilidad de discernir cuándo un número describe un hecho y cuándo reemplaza a una decisión.

No se trata de desconfiar de los datos o romantizar la intuición. Se trata de un reconocimiento más complejo: restaurar la diferencia entre dato, hipótesis y simulación, incluso —y sobre todo— cuando la tecnología los presenta con la misma apariencia de verdad. Porque cuando una organización deja de ver dónde termina el cálculo y comienza la apuesta, ya no gobierna. Simplemente ejecuta.

Epílogo. Tiempo, práctica y fricción
A veces me preguntan cómo llegué a observar estos fenómenos. La pregunta suele ir acompañada de una expectativa indulgente: talento, intuición, alguna forma de lucidez excepcional. La respuesta es menos elegante. No fue talento, sino exposición. El tiempo, lugar y contexto. Haber estado, demasiadas veces, donde los números prometían cerrar lo que en realidad apenas comenzaban a ocultar.

Pasé por economía durante la dictadura en mi país, en pleno auge de los Chicago Boys. Me formé cuando la elegancia del modelo ofrecía orden y cierre en un contexto que desalentaba cualquier indagación sobre sus supuestos. El rigor matemático era indiscutible. También lo era algo que entonces se naturalizaba: todo el edificio formal descansaba sobre premisas que no se cuestionaban. El *ceteris paribus* operaba como cláusula de salvataje permanente. Las ecuaciones cerraban, los modelos eran impecables, pero el mundo permanecía sistemáticamente fuera del encuadre.

No terminé la carrera. La distancia entre la consistencia formal de ese aparato y sus inconsistencias sistémicas se volvió demasiado evidente. La disciplina se entrenaba para producir respuestas rápidas, no para sostener preguntas incómodas. Abandoné la estructura académica, pero no el problema. He continuado mi formación de manera autónoma, buscando marcos que no confundieran la precisión matemática con la comprensión del mundo.

Así vi por primera vez cómo un sistema puede ofrecer exactitud formal a costa de suspender la duda.

Luego, el camino hacia la antropología social fue abrupto. Menos técnica, más fragilidad, pero con una obsesión distinta: quién observa, desde dónde y con qué autoridad. Con dos maestros excepcionales, profundicé en epistemología, filosofía de las ciencias y teoría de sistemas. Aprendí algo que nunca volví a perder de vista: los números no aparecen solos; siempre llegan después de una decisión sobre qué observar, qué excluir y bajo qué criterio considerar eso legítimo.

Casi en paralelo, por una combinación de factores, tuve acceso temprano a una computadora PC 386 XT en casa. Aprendí a programar antes de entender completamente su significado. Comencé a trabajar convirtiendo material cualitativo, impreciso y a menudo deficiente en tablas, coeficientes y gráficos para profesores universitarios.

Nada mejoraba la calidad de esos datos originales. No surgía nueva información, no se corregían sesgos ni aumentaba el rigor en la base. Sin embargo, algo cambiaba de inmediato: la forma. Y con ella, la percepción de verdad.

El mismo contenido, al ser numerado, adquiría autoridad. Deja de parecer una opinión y se presenta como resultado. Ahí entendí, aunque aún sin nombrarlo, que el número no solo describe: produce realidad. Su poder radica no en lo que revela, sino en lo que permite dejar de discutir.

Más adelante, por razones estrictamente profesionales, quedé permanentemente ligado a entornos donde no bastaba con comprender la realidad; había que hacerla visible. Resultados, métricas, indicadores. No se pedía explicación; se exigía evidencia. Fue entonces cuando aprendí la trampa más persistente del mundo corporativo: no solo interpretar indicadores, sino producirlos.

Diseñar un KPI no es solo un acto descriptivo; es una decisión constitutiva. Define lo que existe para el sistema y lo que queda fuera de enfoque. Lo que no entra en el indicador no desaparece; deja de contarse. No hay neutralidad posible en ese acto. Hay poder.

En mi trayectoria, un aspecto decisivo fue trabajar junto a dos colegas y amigos que empezaron a cuestionar la industria del riesgo desde adentro. Ninguno de los dos venía de una formación matemática. Tal vez por eso nunca sintieron fascinación por la elegancia del modelo o la estética del score. Nuestro trabajo no fue un ejercicio intelectual o brillante diálogo en una mesa con cervezas —aunque hubo de eso—, sino una experiencia más desafiante: ensayo y error en negocios reales, en tecnología y riesgo, con costos concretos y decisiones que no siempre resultaban acertadas, en sistemas que, al fallar, no ofrecían una explicación clara.

Ahí la crítica se volvió operativa. No se trataba de condenar abstracciones, sino de convivir con sistemas que prometían certeza y generaban opacidad. De observar cómo los números tranquilizaban comités mientras erosionaban su capacidad de aprendizaje. De constatar repetidamente que el problema no era la falta de datos, sino la pérdida de memoria sobre qué se había asumido para producirlos.

Este camino se volvió más exigente a nivel personal. Desde hace años, mis relaciones más profundas están ligadas a una mujer cuya coherencia formal nunca es suficiente para ella. Su mente matemática, pesimismo existencial y resistencia a aceptar conclusiones demasiado limpias me llevaron a revisar mis propios modelos como hipótesis en lugar de refugios. Ninguna construcción intelectual perdura mucho tiempo si se enfrenta a una convivencia honesta con alguien que no acepta lo obvio sin cuestionarlo.

Por eso, este texto no surge de una teoría cerrada ni de una posición cómoda. Proviene de fricciones acumuladas. De haber visto demasiadas veces cómo los números adquieren autoridad sin memoria, cómo las excepciones se normalizan sin ser nombradas y cómo la tecnología ofrece un cierre donde debería haber una pregunta persistente.

No propongo aquí abandonar el cálculo ni romantizar la intuición. Hay algo más modesto y difícil de aceptar: reconocer que decidir siempre implica una apuesta, incluso cuando se presenta como un resultado técnico. Y que cuando un sistema deja de distinguir lo que está apostando, ya no gobierna el riesgo; simplemente lo administra hasta que algo falla.

Ese fue el aprendizaje. No teórico, sino práctico. Y, en ocasiones, costoso.


Feel free to let me know if you want to adjust anything further!

Con Información de desenfoque.cl

Previous Post
Next Post
Advertisement