El 26 de septiembre de 2025, Corea del Sur sufrió un evento crítico: un incendio en el National Information Resources Service (NIRS, Daejeon) paralizó buena parte de la administración pública del país. En cuestión de horas, más de 600 servicios digitales quedaron fuera de servicio.
Hoy, con el paso de las semanas, el caso sigue dando que hablar no solo por el impacto en la ciudadanía, sino por la fragilidad de la infraestructura y las enormes lecciones que deja para todo el sector de los Data Centers.
Cronología de una catástrofe digital
- 26–27 septiembre: estalla un incendio en el NIRS de Daejeon, aparentemente causado por la explosión de una batería de respaldo durante trabajos de mantenimiento. El fuego se extingue al día siguiente, pero la sala queda inutilizada. Se eleva el nivel de alerta cibernética.
- 28–30 septiembre: se inicia la migración apresurada de servicios a la sede de Daegu. En este punto menos del 10% de los sistemas estaba en línea.
- 6–7 octubre: el gobierno confirma que solo un 25% de los servicios (163 de 647) ha sido restaurado. Se reportan 96 sistemas gravemente dañados y la pérdida potencial de hasta 858 TB de datos.
- 10 octubre: tras dos semanas, persisten los fallos en la mayoría de plataformas estatales, con previsión de recuperación total en varias semanas más.
Servicios que quedaron fuera
El alcance fue nacional. Entre los más afectados:
- Identidad digital y verificación móvil.
- Correo electrónico del gobierno.
- Pagos y transferencias del servicio postal.
- Emisión de pasaportes.
- Trámites inmobiliarios.
- Plataformas de ayuda social.
Millones de ciudadanos vieron interrumpidos trámites cotidianos que daban por garantizados.
La magnitud de la pérdida
Aunque todavía hay investigaciones en curso, las estimaciones hablan de centenas de terabytes de datos gubernamentales perdidos de manera permanente. Una cifra que pone en evidencia no solo el daño físico del incendio, sino la falta de una estrategia sólida de backup y recuperación.
¿Cómo se podría haber evitado?
Las lecciones de este caso aplican a cualquier Data Center, público o privado:
Redundancia activa-activa: para que el fallo de un sitio no signifique el colapso total.
Backups inmutables y probados: no basta con almacenar; hay que restaurar en simulacros reales.
Seguridad en salas de baterías: aplicar normativas específicas para Li-ion (NFPA 855, IEC 62933).
Pruebas de caos y game days: entrenar la infraestructura para fallar de forma controlada.
Gobernanza del dato: clasificar la criticidad y definir RTO/RPO claros para cada servicio.
La pieza que faltaba: un DCiM
Aquí es donde entra un DCiM (Data Center Infrastructure Management):
- Visibilidad en tiempo real: identificar riesgos antes de que sean críticos.
- Alarmas predictivas: anticiparse a fallos en baterías o UPS.
- Automatización de respuesta: conmutación de cargas y reorganización de recursos sin esperar a la acción humana.
- Integridad del dato: trazabilidad y validación de copias para que ninguna información se pierda.
Un DCiM no puede evitar un incendio, pero sí evita que un incidente local se convierta en un apagón nacional.
Checklist de prevención para Data Centers
Para que este caso no se repita en otro país o empresa, aquí una lista práctica de medidas clave:
| Infraestructura eléctrica y seguridad |
|
| Resiliencia operativa |
|
| Gestión de datos |
|
| Gestión y monitorización (DCiM) |
|
El incendio del NIRS no es solo un accidente aislado: es un recordatorio de que la gestión del Data Center requiere visión integral y resiliencia. Corea del Sur, un país puntero en tecnología, vio cómo un fallo físico se traducía en una crisis digital nacional.
La moraleja: invertir en redundancia, backups reales y DCiM no es opcional; es la única forma de garantizar que, incluso en el peor escenario, el servicio nunca deje de funcionar.