viernes, 27 de febrero de 2026

El problema no es la IA (Datos 1 de 2)

 DataDriven · por Jorge Mercado   JMCOACH

Análisis de Caso · Edición 2025

Tres empresas,
una verdad incómoda

No es un problema de IA. No es un problema de tecnología. Es un problema de diseño, de datos y de la secuencia en que se toman las decisiones, No entender el negocio. Llevo tres décadas viéndolo. El patrón no ha cambiado.

Comencé a trabajar con datos cuando a muy temprana edad, cuando era un archivo secuencial en cinta magnética o cartucho y después discos flexibles y la "consulta" era un programa en COBOL, BASIC, PASCAL, C que leía registro por registro de principio a fin. No había SQL Accesible en México. No había índices. No había joins. Solo registros de longitud fija, posición de byte y la disciplina brutal de saber exactamente qué ibas a necesitar antes de escribir la primera línea.

Tres décadas después, con todo el poder de la nube, de los data lakes, del procesamiento distribuido y ahora de la inteligencia artificial generativa, sigo viendo el mismo error de origen que veía en 1987 (siendo niño ya programaba): sistemas diseñados sin visión de datos, sin escalabilidad pensada desde el inicio, sin un modelo de datos que refleje cómo funciona realmente el negocio.

La tecnología cambió radicalmente. El error no. Y ya existía metodología de análisis, siendo niño aún aprendí Yourdon, después OMT y Booch, después CMM,  RUP, etc + ISOs. Pasando por Togaf, Zachman, NIST, DDD, ADM. Las modas driven: Event, data, flow, etc.


1980s
Archivos secuenciales · Cintas magnéticas · COBOL + ISAM
IBM S/370 · VSAM · Batch processing nocturno
1990s
RDBMS · SQL · Cliente/Servidor · Data Warehouses primigenios
Oracle 7 · Sybase · SQL Server · Informix · Crystal Reports
2000s
ERP · Web · XML · SOA · Business Intelligence 1.0
SAP · PeopleSoft · Cognos · Business Objects · ETL manual
2010s
Big Data · NoSQL · Hadoop · Data Lakes · APIs REST
Spark · Kafka · Cassandra · MongoDB · Tableau · Microservicios
2020s
Cloud nativo · Data Mesh · LLMs · AI/ML en producción · Real-time
Snowflake · Databricks · GPT · Glue · Purview · dbt · Great Expectations

He visto nacer y morir más modas tecnológicas de las que puedo contar. He visto que se decía que"el data warehouse nos va a resolver todo" en los 90s e incluso a fechas recientes se sigue usando igual que en ese tiempo, el "Hadoop va a cambiar todo" en los 2010s, "el IoT nos volverá locos con tan información en tiempo real" en los 2015, y hoy "la IA lo va a hacer por nosotros". Y en cada ciclo, las empresas que se quedan atrapadas en el mismo problema son las que corrieron hacia la tecnología sin resolver primero la arquitectura de datos sobre la que esa tecnología va a operar.

Por cierto, en ese tiempo ya leía sobre inteligencia artificial, redes neuronales, programación orientada a objetos, modem, hackers, etc.

No importa si estás migrando de COBOL, C, Java, .Net u otro a microservicios, de un ERP monolítico a una arquitectura de servicios, de un data warehouse a un data lake, o de análisis descriptivo a IA generativa. El primer obstáculo siempre es el mismo: datos inconsistentes entre sistemas, sin definición común, sin dueño, sin calidad medida. Ese problema no lo resuelve ninguna tecnología nueva. Solo lo amplifica. Sin olvidar que no se alinean a las necesidad y estrategia del negocio.

— Jorge Mercado · Cuatro décadas de observación de campo

El problema real no es la IA. 

Cuando la gente me llama hoy diciéndome que "sus proyectos de IA no funcionan", mi primera pregunta siempre es la misma: ¿cuántos sistemas tienes con datos del mismo cliente? Si la respuesta es más de uno —y casi siempre es más de tres—, el problema no es la IA. El problema es exactamente el mismo que tenías en 1995 cuando tu sistema de ventas y tu sistema de cobranza no se ponían de acuerdo en el saldo del cliente. Lo que cambió es el costo de ese error: antes se traducía en un reporte incorrecto. Hoy se traduce en un modelo que aprende patrones equivocados a gran escala.

Pero ojo: el patrón que voy a mostrarte no es exclusivo de iniciativas de IA. Lo veo en migraciones a cloud que fracasan porque los datos que se migran están sucios y sin esquema. Lo veo en implementaciones de ERP que van 3 años de retraso porque nadie limpió los datos maestros antes de arrancar. Lo veo en integraciones de sistemas post-fusión donde dos empresas llevan 4 años "integradas" pero operan con dos versiones del mismo cliente. Lo veo en proyectos de automatización de procesos (RPA, BPM) que se caen porque los datos de entrada son impredecibles. Los veo en juntas no se concoe el negocio lo que esperan de los datos.

El síntoma cambia. La causa raíz es invariablemente la misma: sistemas diseñados sin visión de datos, acoplados de forma frágil, con componentes que nunca fueron diseñados para escalar ni para ser confiables a largo plazo.

$12.9MPérdidas anuales promedio por mala calidad de datos en empresas medianas y grandes Gartner 2024
73%De proyectos de IA fallan por datos de mala calidad — no por algoritmos deficientes Gartner D&A 2024
74%De empresas no pueden escalar IA por falta de gobierno de datos — el mismo problema en sistemas tradicionales BCG AI Report 2024
6%Más rentables son las empresas genuinamente data-driven vs. sus competidores directos MIT Sloan Research

El proceso de ahorcamiento: cómo se sanean sistemas que no puedes apagar

Una de las preguntas que más me hacen cuando presento diagnósticos con este nivel de deuda técnica es: "¿Y cómo lo arreglamos sin detener la operación?" Es la pregunta correcta. La respuesta, que he aplicado docenas de veces con variaciones según el contexto, es lo que en arquitectura de software se conoce como el patrón Strangler Fig —o lo que yo llamo desde hace años, sin eufemismos, el proceso de ahorcamiento.

La imagen es precisa y no es gratuita: la higuera estranguladora tropical crece alrededor de un árbol huésped, tomando su forma y su lugar gradualmente, hasta que el árbol original desaparece y la higuera queda en pie, sola, con su propia estructura. Así es exactamente como se sanea un sistema de datos heredado sin detener el negocio.

El proceso de ahorcamiento aplicado a sistemas de datos y componentes deficientes

El objetivo no es reemplazar el sistema de la noche a la mañana. Es rodear gradualmente cada componente deficiente con una capa nueva, validada y gobernada, hasta que el componente original puede ser desconectado sin impacto en el negocio.

  1. Diagnóstico de componentes deficientes. Antes de ahorcar nada, hay que saber exactamente qué está fallando y por qué. No qué tecnología es vieja, sino qué componente entrega datos con qué nivel de calidad, hacia qué sistemas, con qué frecuencia. El diagnóstico tiene que cuantificar el impacto de negocio de cada deficiencia —no en términos técnicos, sino en términos de decisiones incorrectas, reprocesos o riesgo regulatorio.
  2. Envoltura y captura (Wrap & Capture). Sin tocar el sistema origen, se implementa una capa intermediaria —un API gateway, un bus de datos, un consumer de Kafka, un proceso ETL— que intercepta la salida del componente deficiente y la normaliza, valida y enriquece antes de distribuirla. El sistema original sigue corriendo igual. Los consumidores downstream empiezan a recibir datos limpios desde la nueva capa.
  3. Saneamiento progresivo de datos. Con la capa de captura activa, se ejecuta el saneamiento retroactivo: deduplicación, corrección de formatos, normalización de catálogos, resolución de inconsistencias históricas. Este proceso no interrumpe la operación. Se trabaja en paralelo con datos históricos mientras el flujo en tiempo real ya sale limpio. La prioridad de saneamiento la define el impacto de negocio, no la antigüedad del dato.
  4. Validación de calidad antes de cada promoción. Ningún dato pasa de la capa de captura a los sistemas de consumo sin pasar por reglas de calidad automatizadas (Great Expectations, dbt tests, SQL assertions). Si no cumple: se rechaza, se alerta al Data Steward y se registra el incidente. No hay excepciones. Esta es la parte del proceso que más resistencia genera —y la que más valor produce a largo plazo.
  5. Migración de consumidores downstream. Uno a uno, los sistemas que consumían datos del componente deficiente son migrados para consumir de la nueva capa saneada. Este paso se hace de forma controlada, con período de coexistencia (ambas fuentes activas) y validación de consistencia entre la vieja y la nueva salida antes de cortar la dependencia con la fuente original.
  6. Desconexión del componente ahorcado. Cuando el último consumidor se ha migrado y la nueva capa ha operado en producción de forma estable el tiempo acordado (típicamente 30-90 días), el componente original se puede desconectar. No con un big-bang, sino con un switch silencioso que nadie nota porque el negocio ya no depende de él.
  7. Documentación del linaje y el catálogo. El proceso no termina con la desconexión. Termina cuando el nuevo componente tiene su ficha completa en el catálogo de datos: metadatos técnicos y de negocio, Data Owner, clasificación, regulación aplicable, retención, score de calidad. Sin esto, el ciclo se repite en 5 años con el componente que hoy es nuevo.

Este proceso no es rápido. Un componente de mediana complejidad toma entre 3 y 6 meses para completar el ciclo. Pero es seguro y produce resultados visibles desde las primeras semanas porque la nueva capa ya empieza a entregar datos más limpios a los consumidores, incluso antes de que el componente original sea desconectado. OJO: con herramientas CASE se puede hacer refactor, más el apoyo de la IA correctamente preparada que reduce estos tiempos ahora.

⚠ La trampa de la "limpieza masiva" como proyecto únicoHe visto empresas contratar proyectos de "limpieza de datos" de 6 meses que limpian un snapshot histórico sin cambiar nada del flujo que produce los datos sucios. Resultado: 6 meses después, los datos están igual de sucios que antes. El proceso de ahorcamiento no limpia datos —cambia el proceso que los produce. Esa es la diferencia entre solucionar y parchar.

El estado de partida: lo que casi todos comparten

Antes de los tres casos, hay que ver el estado real del que partimos. No importa la industria —aerolínea, logística, seguros, fintech, retail, manufactura, gobierno. El diagnóstico inicial tiene siempre los mismos elementos:

El estado real que nadie documenta
  • Datos maestros duplicados en 3 a 9 sistemas distintos, sin golden record
  • "Cliente activo" tiene 4 definiciones distintas según el área que pregunte
  • Reportes ejecutivos generados en Excel con macros frágiles y ajustes manuales
  • Integraciones punto a punto: n sistemas generan n² dependencias sin gobernanza
  • Componentes que "siempre han fallado" y que nadie toca por miedo a romper algo
  • Flujos ETL sin monitoreo: se enteran del fallo cuando el reporte está vacío
  • Accesos a datos sin clasificar: TI da permisos amplios porque es lo más fácil
  • Proyectos de modernización que inician sin conocer la calidad real de los datos
  • Cultura: "los datos son un problema de TI, no de negocio"
Lo posible con diseño correcto en 12 meses
  • Golden record único por entidad maestra con linaje completo y Data Owner responsable
  • Glosario de negocio con 200+ términos: una sola definición, aprobada por todos
  • Reportes regulatorios y ejecutivos automatizados: 20+ horas/mes recuperadas
  • Capa de integración gobernada: cambios en un sistema no propagan errores al resto
  • Componentes saneados vía proceso de ahorcamiento: la deuda técnica tiene plan y fecha
  • Alertas de calidad en tiempo real: el error se detecta en minutos, no en días
  • Control de acceso por columna, auditado y revisado trimestralmente
  • Datos confiables que aceleran —no bloquean— cualquier nueva iniciativa
  • Cultura: "mis datos son mi responsabilidad y son un activo estratégico"

La diferencia entre esas dos columnas no es de años. Es de diseño, de secuencia y de quién lidera con qué convicción en los primeros 90 días. Ahora los tres casos.

En la parte 2, usaré unos caso simulados para comprender cómo se leva la práctica del gobierno de datos en tres escenarios diferentes, que abrirán tu mente y sin duda alguna te caerá el veinte, varias veces.

Jorge Mercado
#JMCoach

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.

Cuando la salud no puede esperar: el sistema médico global que funciona aunque todo falle

Cuando la salud no puede esperar: el sistema médico global que funciona aunque todo falle A las 2:17 a.m., una mujer de 63 años sintió un d...