En este espacio se comparten experiencias que pueden ser útiles para personas o empresas en ámbitos personales, profesionales, etc.
Si estos textos te hacen sentido, las soluciones para tu negocio/empresa/persona son viables y puedo acompañarte en el proceso.
Contacto:
mxjormer@gmail.com
http://mx.linkedin.com/in/mxjormer
http://www.twitter.com/JormerMx @JormerMx
http://www.facebook.com/JMCoachMx
jueves, 12 de marzo de 2026
¿Qué pasa si internet desaparece 24 horas?
¿Qué pasa si internet desaparece 24 horas? Cables, satélites, nubes — y la fragilidad que nadie discute
559 cables submarinos. Del grosor de una manguera de jardín. Transportan el 95% del tráfico del planeta. En 2024: 46 incidentes documentados. La pregunta no es si puede pasar. Es qué tan preparados están tú, tu familia, y tu organización cuando pase.
559cables submarinos activos hoy en el mundoTeleGeography 2024
95%del tráfico intercontinental por cable, no satéliteITU 2024
46incidentes de daño documentados en 2024 — récord históricoICPC 2024
$5.6Bpérdida económica estimada por hora de outage global masivoGartner / Cloudflare 2024
JM
Jorge Mercado · #JMCoach
Coach Profesional Certificado · Tecnología Aplicada · C-Level · CTO en producción bajo supervisión CNBV
Marzo 202520 min de lectura
02:47 AM · Mar Rojo · Coordenadas 15°N 42°EUn ancla de dragaminas arrastra el fondo marino a 180 metros de profundidad. Cuatro cables de fibra óptica — del grosor de una manguera de jardín — se tensan y se cortan en segundos. En ese momento, el 25% de la conectividad entre Europa, Asia y África deja de existir. No hay alarma visible. No hay notificación. Solo latencia que se dispara, rutas que se redirigen — si es que existen — y millones de personas que descubren, en ese instante, si el mundo en el que viven fue diseñado para el mundo real o para el mundo ideal.
Esto no es ciencia ficción. Ocurrió en el Mar Rojo en febrero de 2024. Y fue solo uno de los 46 incidentes documentados ese año. Pero antes de hablar de empresas, reguladores y arquitecturas técnicas — hablemos de algo más cercano: ¿qué le pasa a una persona normal cuando la conectividad falla?
No es solo un problema corporativoTú también vives en internet — aunque no lo notes
La mayoría de los artículos sobre riesgo de conectividad están escritos para directores de TI y consejos directivos. Este no. Porque la primera persona que siente el impacto de una falla de conectividad no es el CTO de un banco — es la persona que intenta pagar en la caja del supermercado y la terminal no responde. Es el paciente cuyo expediente clínico no carga. Es el conductor de reparto que no puede confirmar la entrega. Es el estudiante cuya clase en línea nunca inicia.
La conectividad dejó de ser una comodidad tecnológica hace diez años. Hoy es infraestructura básica — tan crítica como la electricidad o el agua potable. Y como toda infraestructura crítica, la mayoría de las personas no piensa en ella hasta que desaparece.
🛒
Comprando en tienda
Las terminales de pago, los precios en sistema y los inventarios dependen de conectividad. Sin internet: solo efectivo — que la mayoría ya no carga.
🏥
En urgencias médicas
Expediente clínico, imágenes diagnósticas, validación de seguro médico y recetas electrónicas — todos en sistemas conectados. Sin red: decisiones clínicas con información incompleta.
✈️
En el aeropuerto
Check-in, pases de abordar digitales, control migratorio, coordinación de vuelos y gestión de equipaje son sistemas 100% conectados. Caída = aeropuerto paralizado.
🏦
Usando tu banco
Transferencias, validación de saldo, pagos con tarjeta y banca móvil requieren conectividad en tiempo real con los servidores del banco y la red de tarjetas.
📦
Esperando un pedido
Rastreo en tiempo real, notificaciones de entrega, confirmación de recepción y gestión de rutas de última milla dependen de conectividad constante.
🎓
En clases o trabajo remoto
El 73% de instituciones educativas y el 58% de empresas operan en modelo híbrido. La jornada de millones de personas depende de que la conexión funcione.
El punto no es alarmista. Es preciso: una caída significativa de conectividad no es un inconveniente técnico — es una interrupción de las funciones básicas de la vida cotidiana moderna. Y la mayoría de las personas, las instituciones y las empresas no tienen un plan para eso.
Lo que nadie te enseñó sobre internetInternet vive en el océano, no en la nube
El 95% del tráfico intercontinental de datos viaja por cables de fibra óptica tendidos en el fondo del mar. En aguas profundas tienen el diámetro de un marcador de pizarrón. En zonas costeras, donde el tráfico náutico y las anclas son frecuentes, están recubiertos de armadura metálica. Son la columna vertebral invisible de la economía digital global — y son físicamente vulnerables.
⬡ Los cuellos de botella de la conectividad global
🌊
Mar Rojo · Estrecho de Bab el-Mandeb
Más de 16 cables conectan Europa con Asia y África oriental por esta ruta. Zona de conflicto activo desde 2023. Una interrupción aquí redirige el tráfico por el Cabo de Buena Esperanza, aumentando la latencia entre 150 y 200ms — suficiente para que las transacciones financieras en tiempo real fallen.
~25% del tráfico Europa-Asia
🌊
Estrecho de Luzon · Mar de China
Corredor clave para el tráfico transpacífico. Tensión geopolítica permanente. Hasta 10 cables pasan por un estrecho de menos de 300km. Afecta directamente la conectividad de Japón, Corea del Sur, Filipinas y el sudeste asiático con América.
~20% del tráfico transpacífico
🌊
Atlántico Norte · Corredor Transatlántico
La ruta más densa del mundo. Más de 30 cables activos. Los puntos de aterrizaje en Lisboa, Bilbao, Marsella y las Azores son vulnerables a actividad sísmica documentada. La redundancia es mayor aquí — pero tampoco es infinita.
~35% del tráfico global
El mito del respaldo perfectoEl satélite tampoco es infalible
Cuando se habla de fallos de cables submarinos, la respuesta inmediata suele ser: "pero existe el satélite". Es una respuesta tranquilizadora y parcialmente incorrecta. Los satélites transportan menos del 5% del tráfico global de datos — y también fallan, también tienen limitaciones físicas, y también dependen de infraestructura terrestre que puede verse interrumpida.
En los últimos tres años, los principales sistemas satelitales han registrado interrupciones documentadas que afectaron desde agricultores en zonas rurales hasta operaciones militares y transportistas internacionales:
🛰️
Starlink — Feb 2023
Una tormenta solar de clase X provocó la degradación del servicio en múltiples regiones de América del Norte y Europa durante 6 horas. Las tormentas solares pueden incapacitar temporalmente la electrónica de los satélites en órbita baja. SpaceX perdió 40 satélites en 2022 por una tormenta geomagnética.
⚠ Causa: tormenta solar · Afectados: miles de usuarios residenciales y empresas
🛰️
Viasat KA-SAT — Feb 2022
Ciberataque coordinado al inicio de la invasión rusa a Ucrania dejó fuera de servicio decenas de miles de módems satelitales en Europa central y oriental. El ataque no apuntó al satélite — apuntó a la infraestructura terrestre de gestión. El satélite funcionaba. Los usuarios, no.
⚠ Causa: ciberataque a infraestructura terrestre · Afectados: 40,000+ usuarios
🛰️
GPS Global — Incidentes recurrentes
El sistema GPS — base de la navegación, la logística, los timestamps financieros y la sincronización de redes de telecomunicaciones — ha experimentado interferencias documentadas en zonas del Mediterráneo oriental, Mar Báltico y Oriente Medio. El spoofing de señal GPS es hoy una táctica de guerra electrónica activa.
Los servicios satelitales de banda ancha para zonas sin cable terrestre tienen capacidad limitada. En eventos de alta demanda simultánea — desastres naturales, conflictos, grandes eventos — la saturación de la capacidad satelital disponible es predecible y documentada.
⚠ Causa: saturación de capacidad · Impacto: comunidades remotas en emergencias
5%
La realidad del ancho de banda satelital global
Todo el tráfico satelital combinado — incluyendo Starlink con su flota de más de 5,000 satélites — representa menos del 5% del tráfico de datos global. Si los cables submarinos desaparecieran mañana, la capacidad satelital existente podría gestionar aproximadamente una vigésima parte del tráfico actual.
El satélite es un respaldo parcial, no un sustituto. Y tampoco es gratuito: la latencia de los sistemas geoestacionarios (35,000km de órbita) hace imposibles las aplicaciones en tiempo real como videoconferencias, transacciones financieras y juegos online. Starlink en órbita baja tiene mejor latencia — pero su capacidad total sigue siendo una fracción de los cables.
ITU · TeleGeography · SpaceX Annual Report 2024
No son hipotéticos. Ya pasaron.Los tres incidentes que deberían estar en el tablero directivo
1
Oct 2021
Meta / Facebook — 6 horas borrado del mapa
Un error en la configuración del protocolo BGP — el sistema de enrutamiento global — eliminó a Facebook, Instagram y WhatsApp durante 6 horas. No fue un ataque. Fue una línea mal configurada. Los equipos tardaron horas en recuperar acceso físico a sus propios centros de datos porque los sistemas de autenticación también estaban caídos. Lección: un sistema interdependiente puede bloquearse a sí mismo.
$6B de capitalización perdidos ese día · 3.5B usuarios sin servicio · WhatsApp Business: millones de empresas paralizadas
2
Jan 2022
Tonga — 38 días sin conectividad internacional
La erupción del volcán Hunga Tonga-Hunga Ha'apai cortó el único cable de fibra óptica internacional del país. 100,000 habitantes quedaron con conectividad satelital de emergencia equivalente al 5% de su capacidad normal. Bancos sin acceso internacional. Exportadores sin comunicación. Hospitales sin consultas remotas. Reparación: 38 días.
100,000 personas desconectadas · Economía nacional en pausa · $10M+ en reparación
3
Jul 2024
CrowdStrike — 8.5 millones de computadoras en el mundo
Una actualización defectuosa del software de ciberseguridad CrowdStrike Falcon envió a 8.5 millones de computadoras Windows a la pantalla azul de la muerte de forma simultánea. Aerolíneas cancelaron vuelos. Hospitales cancelaron cirugías. Bancos cerraron sucursales. El origen: un archivo de configuración mal validado. No fue un ataque — fue un error en el proceso de actualización de un sistema que todos confiaban sin cuestionar.
La nube también tiene zonas muertasOutages en AWS, Azure y Google Cloud — con nombres, fechas y costos
Existe otro malentendido extendido entre directivos y usuarios: que migrar a la nube equivale a eliminar el riesgo de downtime. Los grandes proveedores cloud tienen SLAs del 99.9% o 99.99% — lo que suena impresionante hasta que se traduce: 99.9% de disponibilidad significa 8.7 horas de downtime permitido por año. 99.99% significa 52 minutos. Y los incidentes reales han superado esos umbrales más de una vez.
⬡ Outages documentados en proveedores cloud — 2021–2024
La región us-east-1 de AWS —la más utilizada del mundo— experimentó una falla en el servicio EC2 y múltiples servicios dependientes. Netflix, Disney+, Tinder, Coinbase, el propio panel de AWS Status y miles de empresas que operan en esa región quedaron degradadas o fuera de línea. La ironía: el dashboard que informa el estado de AWS también estaba en us-east-1 y no podía reportar su propia falla.
Estimado de pérdidas del sector: $150M+ · Empresas afectadas: cientos de miles globalmente
Azure AD Global
Microsoft Azure Active Directory · Ene 2023 · ~14 horas
Una falla en Azure Active Directory — el sistema de autenticación de identidades de Microsoft— dejó a usuarios corporativos sin poder iniciar sesión en Office 365, Teams, Outlook y todas las aplicaciones integradas con Azure AD. Afectó a empresas en múltiples continentes. Las organizaciones que no tenían autenticación de respaldo o procedimientos de acceso de emergencia documentados simplemente no pudieron trabajar.
Trabajo interrumpido en millones de empresas · Duración: ~14 horas de degradación parcial
Google Cloud
Google Cloud · Nov 2021 · Múltiples servicios · ~3 horas
Una falla en el sistema de gestión de cuotas de Google afectó simultáneamente a Gmail, YouTube, Google Drive, Google Meet y servicios de Google Cloud. El incidente afectó principalmente a Asia-Pacífico y duró aproximadamente 3 horas. Lección crítica: cuando el proveedor de autenticación, almacenamiento y colaboración es el mismo, una falla puede deshabilitar toda la operación de golpe.
YouTube: pérdida estimada de $1.6M por hora en ingresos publicitarios · Millones de usuarios afectados
Cloudflare Global
Cloudflare · Jun 2022 · ~1 hora · Impacto desproporcionado
Un error de configuración en la red de Cloudflare — que procesa aproximadamente el 20% de todo el tráfico web mundial — dejó inaccesibles miles de sitios y servicios globalmente. Discord, Shopify, Fitbit, League of Legends y cientos de servicios más cayeron simultáneamente. El incidente duró menos de una hora pero ilustró cuánta infraestructura crítica depende de un solo punto de tránsito.
~20% del tráfico web global afectado · Punto único de falla sistémica
⬡ El problema central: concentración sin redundancia real
La nube pública concentra infraestructura que antes estaba distribuida — y eso crea economías de escala y eficiencia. Pero también crea puntos únicos de falla a escala global. Cuando AWS us-east-1 falla, no falla una empresa — fallan miles simultáneamente. El riesgo no desapareció al migrar a la nube: se transformó. Pasó de ser un riesgo localizado y gestionable a ser un riesgo sistémico compartido con millones de otras organizaciones. La diferencia es que ese riesgo sistémico no aparece en el plan de continuidad de la mayoría de las empresas.
El plan que existe en el PowerPoint pero no en la operaciónDRP, BCP y Alta Disponibilidad — lo que realmente significan
Tres términos que aparecen en casi todas las presentaciones de gestión de riesgos — y que en la práctica significan cosas muy distintas dependiendo de si la organización los diseñó para pasar una auditoría o para sobrevivir un incidente real.
Concepto
❌ Lo que la mayoría tiene
✅ Lo que realmente funciona
DRP · Plan de Recuperación ante Desastres
Documento de 80 páginas aprobado por el comité de riesgos hace 3 años. Nunca probado en producción real. El equipo que lo redactó ya no está.
Runbook operacional de máximo 20 páginas, probado en simulacro semestral con el equipo real. RTO y RPO medidos, no estimados. Actualizado cuando cambia la arquitectura.
BCP · Plan de Continuidad de Negocio
Lista de contactos de emergencia y la instrucción de "activar el DRP si falla algo". Sin definición de qué proceso puede continuar en modo degradado y cuál se detiene.
Mapa explícito de cada proceso crítico con su versión operacional offline: qué autoriza el equipo sin sistema, qué espera, qué escala y a quién. El equipo operativo lo conoce y lo practica.
Alta Disponibilidad · HA
Servidor primario con un backup que "debería funcionar si falla el principal". Último test de failover: hace 18 meses. En una región cloud única.
Arquitectura activo-activo o activo-pasivo con failover automático probado mensualmente. Distribuida en al menos 2 zonas de disponibilidad, idealmente 2 regiones. RTO medido en segundos, no en horas.
RTO / RPO
RTO: "lo más pronto posible". RPO: "lo menos que podamos perder". Sin traducción a compromisos contractuales con el negocio.
RTO: 15 minutos para sistemas Tier 1, 4 horas para Tier 2. RPO: 0 para transacciones financieras, 1 hora para datos operativos. Compromisos firmados entre TI y cada área de negocio.
Simulacro de desastre
Nunca ejecutado, o ejecutado en ambiente de desarrollo sin carga real, sin el equipo de operaciones, en un sábado cuando nadie usa el sistema.
Game day semestral en producción: se corta deliberadamente el servicio de un componente crítico y se mide cuánto tarda el equipo en detectarlo, escalar y recuperar. Los resultados alimentan mejoras concretas.
60%
Planes de continuidad que nunca se probaron en producción real
Gartner reporta que el 60% de las organizaciones tiene planes de continuidad que nunca se probaron bajo condiciones reales. Y hay un corolario más duro: el 93% de las empresas que experimentan downtime de datos de más de 10 días declaran quiebra en el año siguiente.
Un plan no probado no es un plan de continuidad. Es una hipótesis documentada que se va a descubrir —incorrecta en varios puntos— exactamente cuando más duele hacerlo.
Gartner Business Continuity Survey 2024 · Disaster Recovery Statistics Report
El espejo que pocos quieren ver¿Qué para exactamente en tu organización?
🏦
Banca y Fintech
SPEI, autorización de tarjetas, consultas de saldo, sistemas antifraude en tiempo real, reporting regulatorio a CNBV. Una interrupción de más de 4 horas activa obligaciones de notificación al regulador.
$2.4M/ hora de downtime · Gartner 2024
🏥
Sector Salud
Expedientes clínicos en nube, laboratorios centralizados, imágenes diagnósticas remotas, telemedicina. El 67% de hospitales tiene al menos un sistema crítico en nube pública.
67%de hospitales con sistemas críticos en nube
🏨
Hotelería
PMS en nube, channel managers, pagos digitales, check-in móvil. Sin conectividad: pricing dinámico congelado, canales OTA ciegos, check-in manual.
100%del revenue management en tiempo real: paralizado
🚛
Logística
Rastreo de unidades, confirmación de entregas, facturación electrónica, coordinación con aduanas. Las unidades siguen rodando — pero sin visibilidad ni factura.
$890K/ hora en operaciones de flota mediana · IDC 2024
🏭
Manufactura
ERPs en nube, sistemas MES conectados, IIoT para mantenimiento predictivo, instrucciones de trabajo digitales. El 38% de plantas manufactureras tiene MES 100% cloud.
38%de plantas con MES 100% cloud · McKinsey 2024
👤
Ciudadano / Persona
Pagos digitales, acceso a servicios gubernamentales, trámites en línea, educación híbrida, telemedicina, transporte por app. La vida cotidiana digitalizada es completamente dependiente.
73%de personas usan servicios críticos por app diariamente
La arquitectura de la resiliencia realOffline-first, multicloud, satélite — en ese orden y con sentido
La respuesta al riesgo de conectividad no es "agregar más ancho de banda" ni "contratar un segundo ISP del mismo proveedor". La respuesta correcta es diseñar la operación asumiendo que la conectividad es un recurso intermitente — no un servicio garantizado — y construir cada proceso crítico con esa premisa como restricción de diseño desde el inicio.
⬡ Las 3 capas de resiliencia operacional — Modelo JMCoach
Capa 1 · Operación offline
Offline-first por proceso
Cada proceso crítico tiene una versión que funciona sin conectividad. Las decisiones que hoy requieren consulta en tiempo real a sistemas cloud se replican localmente con una ventana de sincronización definida. El punto de venta que autoriza fuera de línea. El almacén con inventario local. El hospital con expediente en caché.
Prioridad: operación sin interrupción
Capa 2 · Conectividad redundante
Múltiple carrier, múltiple tecnología
Dos ISP en rutas físicas distintas — no dos contratos con la misma red de acceso. Conectividad satelital como tercer canal con capacidad suficiente para los procesos críticos definidos. SD-WAN para failover automático en menos de 30 segundos sin intervención humana.
Prioridad: continuidad de señal
Capa 3 · Distribución cloud
Multicloud con presencia regional
Los servicios críticos distribuidos en al menos 2 zonas de disponibilidad, idealmente 2 regiones geográficas. AWS + Azure o GCP en combinación, con datos replicados y enrutamiento automático. Un outage en us-east-1 no puede afectar a una empresa que no depende solo de us-east-1.
Prioridad: disponibilidad de servicio
"El plan de recuperación ante desastres que no se ha probado en producción no es un plan. Es una hipótesis documentada. La diferencia entre los dos se descubre exactamente cuando más duele descubrirla."— Jorge Mercado · #JMCoach · Experiencia directa en transformaciones en sectores regulados bajo CNBV, COFEPRIS y ASEA
Para el directivo, el emprendedor y la personaLas preguntas que vale la pena responder esta semana
⬡ Diagnóstico de resiliencia de conectividad — para organizaciones y personas
¿Tienes inventariados los procesos o actividades críticas de tu día que dependen de conectividad — y cuánto te costaría que fallaran 4 horas? Financiero
¿Tu organización tiene al menos dos proveedores de conectividad con rutas físicas independientes — no dos contratos con la misma infraestructura de acceso? Operacional
¿Existe un protocolo documentado de operación offline para cada proceso crítico — con las reglas de negocio que aplican cuando no hay red? Operacional
¿Ese protocolo se probó en producción real en los últimos 12 meses — con el equipo operativo real, no en un ambiente de pruebas un sábado sin usuarios? Cumplimiento
¿Tus servicios cloud críticos están distribuidos en más de una zona de disponibilidad — o todo vive en una sola región que puede fallar en bloque? Tecnológico
¿Tu DRP y BCP tienen RTO y RPO definidos por proceso — no como política general, sino como compromisos medibles revisados en los últimos 12 meses? Regulatorio
¿El equipo operativo — no solo TI — conoce y practicó el protocolo de acción cuando la conectividad falla? ¿Saben qué autorizar fuera de línea y qué no? Humano
Como persona: ¿tienes efectivo disponible para operar 48 horas si los pagos digitales fallan? ¿Medicamentos esenciales en casa? ¿Documentos importantes descargados offline? Personal
¿Tu cobertura de seguros incluye pérdidas por interrupción de conectividad de causa externa — no solo por ataque o falla interna de tus sistemas? Financiero
¿El consejo directivo recibe un reporte de riesgo de continuidad digital con escenarios cuantificados — o solo aprueba políticas sin ver los números detrás? Gobierno
Si la respuesta a más de 4 de estas preguntas es "no" o "no lo sé", la organización — o la persona — tiene una exposición al riesgo operacional que espera el momento equivocado para hacerse visible. Y el momento equivocado, como muestran todos los casos anteriores, no avisa.
No es un problema de TI. Es un problema de decisión.La resiliencia se decide antes del incidente — no durante
El error más frecuente que encuentro en organizaciones con buena intención y mala preparación es delegar el riesgo de conectividad completamente al equipo técnico. La consecuencia es predecible: TI resuelve los síntomas técnicos — redundancia de ISP, backups automatizados, monitoreo de red — pero nadie resuelve la pregunta de negocio: ¿qué puede hacer la organización cuando los sistemas no responden, y quién tiene la autoridad para tomar esas decisiones en tiempo real?
Y eso aplica igual para la empresa mediana que para la persona que tiene su vida entera en el teléfono. La resiliencia no es una característica técnica. Es una decisión que se toma antes — cuando hay tiempo para pensar, diseñar y practicar.
El 95% del tráfico de datos viaja por cables que ningún directivo ha visto y ningún usuario conoce. La mayoría de los incidentes que interrumpen la vida cotidiana y la operación de las organizaciones no tienen origen en una falla interna — tienen origen en algo que ocurre en el fondo del Mar Rojo, en un centro de datos en Virginia, en una actualización de software mal validada, o en una tormenta solar que nadie predijo con exactitud. La única variable que tú controlas completamente es si estás diseñado para seguir operando cuando eso pasa.
⬡ Las preguntas que valen $2M por hora — y también valen la tranquilidad de cualquier persona
Si internet desaparece mañana a las 9 de la mañana durante 24 horas — ¿qué pierdes tú? ¿Qué pierde tu empresa? ¿Alguien tiene ese número claro?
Y la segunda pregunta, que es la más importante: ¿qué va a hacer tu equipo — y tú — en las primeras 4 horas? ¿Lo saben ellos también?
JM
Jorge Mercado · #JMCoach
Coach Profesional Certificado · Tecnología Aplicada · C-Level Arquitectura empresarial aplicada en sectores regulados: CNBV, COFEPRIS, ASEA IA en producción activa · Plataformas bajo supervisión regulatoria
Consultas y procesos: @JormerMx · jmcoach-mx.blogspot.com
Los datos de incidentes y costos corresponden a fuentes públicas documentadas: TeleGeography 2024, ICPC 2024, Gartner Business Continuity Survey 2024, ITU 2024, Microsoft Incident Reports, AWS Post-Incident Analysis, Google Cloud Status History. Los escenarios operacionales son ilustrativos basados en patrones documentados en la industria y experiencia directa del autor.
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.