El backup que nunca existió
Cómo una empresa mediana perdió 14 meses de datos en un fin de semana por creer que tenían una política de copias de seguridad cuando en realidad no tenían nada. Y el coste fue devastador.
Los nombres de empresas, personas y datos específicos han sido modificados para proteger la identidad de las partes involucradas. El caso está basado en hechos reales documentados.
Era el lunes de Semana Santa. Rodrigo Peña, director general de Fertec Iberia —una empresa de fabricación de componentes industriales con 140 empleados y 18 años de historia— estaba en la sierra con su familia cuando sonó el teléfono. Era Iñaki, el único técnico de sistemas de la empresa.
«Rodrigo, el servidor principal ha fallado. Un fallo de disco. He intentado levantar el sistema desde el backup pero... hay un problema.»
El problema, que Iñaki tardó varios minutos en articular, era el siguiente: el sistema de backup llevaba catorce meses sin ejecutarse correctamente. Nadie lo había comprobado. Nadie había verificado las copias. Nadie había simulado una restauración. El backup existía sobre el papel, en un procedimiento guardado en una carpeta del servidor. El backup real, el que funciona cuando lo necesitas de verdad, no existía.
Rodrigo tardó un segundo en procesar las palabras. Luego tuvo que sentarse.
La empresa que creía estar protegida
Fertec Iberia había crecido de forma constante durante casi dos décadas. Empezaron en un taller de 400 metros cuadrados con cinco personas. En 2026 tenían tres naves industriales, contratos con fabricantes de automoción europeos y un ERP personalizado que gestionaba desde los pedidos a proveedores hasta la trazabilidad de cada pieza producida.
La tecnología, sin embargo, había crecido de forma orgánica y algo caótica. Un servidor comprado en 2019. Un segundo servidor añadido en 2021. Varios discos externos. Un NAS en el despacho de Rodrigo que «alguien» había instalado para «las copias de seguridad». Y un técnico de sistemas, Iñaki, que hacía milagros siendo el único responsable de toda la infraestructura de una empresa de 140 personas.
Cuando en el consejo de administración alguien preguntaba por los backups, la respuesta era siempre tranquilizadora: «Sí, tenemos copias de seguridad automáticas cada noche.» Era verdad. Hasta que dejó de serlo.
«Nadie me preguntó nunca si los backups funcionaban de verdad. Me preguntaban si los teníamos. Y sí, los teníamos. Pero en catorce meses nunca comprobé que se estuvieran ejecutando correctamente. Ese error fue mío.»
El problema se había originado en marzo del año anterior, cuando migraron parte del ERP a un nuevo servidor. Durante la migración, la tarea programada que ejecutaba las copias de seguridad nocturnas quedó apuntando a una ruta de red que ya no existía. El script se ejecutaba cada noche puntualmente, escribía un log sin errores visibles, y no copiaba absolutamente nada. Los archivos de log parecían correctos. Solo una revisión minuciosa habría detectado que los ficheros de destino no aumentaban de tamaño.
Iñaki lo descubrió cuando el servidor falló y fue a buscar la copia de la noche anterior. Y no estaba. Ni la de esa noche, ni la de la semana pasada, ni la de los catorce meses anteriores.
El fallo que lo desencadenó todo
El servidor principal de Fertec tenía una configuración RAID-5 con tres discos. Teóricamente, el RAID-5 permite que falle un disco sin pérdida de datos, porque la información se distribuye con paridad entre los tres. Es una solución robusta. Pero tiene un punto débil del que mucha gente no habla: cuando falla un disco y el RAID reconstruye con el disco de repuesto, durante ese proceso de reconstrucción la carga sobre los discos restantes es enorme. Y si otro disco tiene sectores defectuosos —cosa frecuente en discos viejos que trabajan bajo estrés— puede fallar también durante la reconstrucción.
Eso fue exactamente lo que ocurrió. El Viernes Santo por la mañana falló el disco número dos. Iñaki recibió la alerta, pero era festivo, estaba de viaje y decidió gestionarlo el martes tras las vacaciones. «El RAID-5 aguanta un disco caído, total era fin de semana largo.» El sábado por la tarde, mientras el sistema seguía funcionando con dos discos, el disco número tres —que llevaba meses con sectores defectuosos sin que nadie lo supiera— cedió definitivamente.
Anatomía del fallo: cómo un RAID-5 puede engañarte
Fallo del disco 2 — Viernes Santo, 11:23
El disco 2 del array RAID-5 reporta errores de lectura irrecuperables. El sistema manda una alerta por email a Iñaki. Este decide no actuar hasta el martes.
El sistema sigue funcionando (degradado)
Con dos discos, el RAID-5 opera en modo degradado. Los datos siguen siendo accesibles pero ya no hay tolerancia a fallos. Un segundo fallo significa pérdida total.
Fallo del disco 3 — Sábado, 17:47
El disco 3, que llevaba semanas con sectores defectuosos no monitorizados, cede bajo la carga adicional. El array RAID entra en estado crítico. Los datos son inaccesibles.
Descubrimiento del desastre — Lunes, 09:15
Iñaki, alertado por el segundo aviso, intenta acceder al servidor de backups para restaurar. Descubre que los backups llevan 14 meses sin ejecutarse correctamente. No hay nada que restaurar.
Cuando Rodrigo volvió de la sierra el lunes por la tarde, se encontró con la empresa paralizada. El ERP no arrancaba. Los técnicos de producción no podían acceder a los planos de fabricación. El departamento comercial no tenía acceso a los pedidos activos. Los datos de los clientes, los proyectos en curso, las órdenes de fabricación, los registros de calidad, los históricos de proveedores… todo estaba en esos dos discos fallidos.
Rodrigo contrató ese mismo lunes a una empresa especializada en recuperación de datos. El diagnóstico no fue alentador: los discos tenían daño físico en los cabezales de lectura. La recuperación sería parcial en el mejor de los casos, y llevaría entre dos y cuatro semanas.
Las semanas del colapso
Cómo se desarrolló el peor mes en la historia de la empresa
Viernes Santo · 11:23
Primera alerta ignorada
El disco 2 del servidor principal falla. Iñaki recibe la alerta pero decide esperar al martes. El RAID-5 sigue funcionando en modo degradado. La decisión de esperar costará todo.
Sábado · 17:47
Colapso total del array
El disco 3 cede. El array RAID-5 entra en estado crítico. Todo el servidor es inaccesible. La empresa lleva 14 meses sin backups válidos sin saberlo.
Lunes de Pascua · 09:30
Descubrimiento del vacío
Iñaki descubre que los backups llevan 14 meses fallando silenciosamente. La última copia válida data de marzo del año anterior. 14 meses de datos, evaporados.
Lunes · 15:00
La empresa se paraliza
140 empleados sin acceso a sus sistemas. Las tres naves de producción se detienen. Se contratan especialistas forenses en recuperación de datos. Coste estimado inicial: 28.000 euros.
Semanas 2-3
Reconstrucción manual desesperada
El equipo intenta reconstruir pedidos y órdenes de fabricación desde emails, WhatsApp, cuadernos en papel y memoria. Se recupera menos del 40% de los datos críticos. Los clientes empiezan a llamar.
Semana 4
Recuperación parcial forense
La empresa forense entrega los resultados: 61% de los datos recuperados, con daños e inconsistencias. El ERP no puede ser restaurado directamente. Se decide reconstruir desde cero con los datos parciales.
El daño real: números que duelen
Rodrigo había pensado que el problema de los servidores sería caro pero manejable. Quizás unos miles de euros en hardware nuevo y un par de días de caos. Lo que nadie le había explicado nunca es que el coste de perder los datos de una empresa no es el coste de los discos. Es el coste de todo lo que depende de esos datos.
~€74.000
Parada de producción
18 días con producción prácticamente paralizada o severamente reducida. Penalizaciones por retrasos en entregas a clientes de automoción.
€31.500
Recuperación forense de datos
Empresa especializada en recuperación de discos con daño físico. Trabajo en sala limpia, reconstrucción parcial de ficheros y entrega de informe pericial.
€48.000
Reconstrucción del ERP
Reconfiguración del ERP desde cero, migración de datos parciales recuperados, introducción manual de históricos por parte del equipo de administración durante semanas.
€22.000
Horas de empleados perdidas
140 empleados con baja productividad durante 3 semanas. Horas extra no remunerables del equipo de administración reconstruyendo datos manualmente.
€80.000/año
Contratos perdidos
Dos clientes industriales terminaron contratos alegando falta de garantías operativas. Uno de ellos representaba el 12% de la facturación anual.
€29.000
Nueva infraestructura
Servidores nuevos, sistema de backup profesional, solución cloud de respaldo, licencias de monitorización. Una inversión que llevan años sin hacer.
COSTE TOTAL ESTIMADO DEL INCIDENTE
€204.500
Sin contar los contratos perdidos (€80.000/año) ni el daño reputacional con el sector
Para contextualizarlo: una solución de backup profesional en la nube con monitorización, copias inmutables y pruebas de restauración automáticas habría costado a Fertec entre €180 y €350 al mes para su volumen de datos. En doce meses, entre 2.160 y 4.200 euros. Frente a 204.500 euros de pérdida directa y dos contratos perdidos.
Pero el impacto más difícil de cuantificar fue otro: la pérdida de la trazabilidad de 14 meses de fabricación. Fertec tenía contratos con fabricantes de automoción que exigen trazabilidad total de cada componente producido. Sin esos registros, la empresa tuvo que demostrar retroactivamente —con documentos físicos, emails, certificados de proveedor— que sus piezas cumplían los estándares de calidad requeridos. Fue un proceso que duró meses y que puso en riesgo varios certificados de calidad.
«Lo más duro no fue el dinero. Lo más duro fue llamar a nuestros clientes principales el martes después de Semana Santa y decirles que no podíamos garantizarles los plazos de entrega porque habíamos perdido las órdenes de fabricación. Que habíamos perdido sus datos. Esa llamada no se la olvida a nadie.»
Qué falló realmente: más allá del disco duro
Sería fácil culpar al disco duro. O a Iñaki por no actuar el Viernes Santo. O al script de backup mal configurado. Pero el verdadero problema de Fertec no era técnico. Era organizativo. Era cultural. Era la suma de una serie de decisiones —o ausencias de decisiones— que se acumularon durante años hasta que un día coincidieron todas en el peor momento posible.
Nadie era dueño del backup
Iñaki sabía que existía el sistema de backup. Rodrigo asumía que funcionaba. Nadie tenía la responsabilidad explícita de verificarlo periódicamente. En seguridad de datos, «asumir que funciona» equivale a no tenerlo.
El plan de continuidad era un documento, no un proceso
Fertec tenía un documento PDF titulado «Plan de Continuidad de Negocio» creado en 2021. Nadie lo había revisado desde entonces. Nadie había hecho un simulacro de restauración. Existía para mostrar en auditorías, no para usarse.
Las alertas existían pero nadie las gestionaba
El servidor enviaba alertas por email cuando un disco fallaba. Esas alertas llegaban a la bandeja de entrada de Iñaki, entre cientos de notificaciones automáticas del sistema. Sin priorización ni escalado, una alerta crítica esperó cuatro días sin ser atendida.
El hardware viejo nunca se planificó para renovar
Los discos del servidor tenían más de cinco años. Los fabricantes de discos duros documentan que la tasa de fallos aumenta exponencialmente a partir del cuarto año de uso continuo. Pero en Fertec no había ningún proceso de revisión de ciclo de vida del hardware.
RAID no es backup
Esta es quizás la confusión más peligrosa y extendida en empresas medianas. RAID protege contra el fallo de hardware, pero no contra borrado accidental, corrupción de datos, ransomware ni múltiples fallos simultáneos. Tener RAID es necesario, pero no reemplaza a una política de backup.
Lo que habría cambiado todo
Ninguna de las medidas que habrían evitado este desastre requería un presupuesto de gran empresa ni un equipo técnico especializado. Eran —son— prácticas estándar al alcance de cualquier pyme con una mínima voluntad de implementarlas.
La regla 3-2-1 de backups: la base de todo
Lo que hizo la empresa
Un único script nocturno que copiaba al NAS de red. Cuando el script falló, nadie lo detectó durante 14 meses. Cuando el servidor falló, no había nada que restaurar.
Lo que debería haberse hecho
3 copias de los datos, en 2 medios distintos, con 1 copia offsite (fuera de la red local, en la nube o en ubicación física diferente). Si el ransomware o el fallo llega a una copia, las otras dos están intactas.
Verificación automática y pruebas de restauración periódicas
Lo que hizo la empresa
Los logs del backup parecían correctos pero no se comprobaba que los archivos de destino tuvieran el tamaño esperado. Nunca se había hecho una restauración de prueba en 14 meses.
Lo que debería haberse hecho
Soluciones de backup modernas (Veeam, Acronis, Nakivo) verifican automáticamente la integridad de cada copia y alertan si el backup no se ejecuta o si el tamaño es anómalo. Prueba de restauración completa cada trimestre como mínimo.
Monitorización proactiva del hardware con escalado de alertas
Lo que hizo la empresa
La alerta del disco fallido llegó por email a Iñaki, que estaba de vacaciones. Sin escalado automático, la alerta esperó días sin ser atendida.
Lo que debería haberse hecho
Herramientas de monitorización (SMART, Zabbix, Grafana) con alertas por múltiples canales (SMS, Slack, llamada) y escalado automático: si Iñaki no responde en 2 horas, la alerta sube a Rodrigo. Si un disco reporta sectores defectuosos, se activa protocolo de sustitución inmediata.
Plan de continuidad de negocio vivo y probado
Lo que hizo la empresa
El PDF de 2021 existía para auditorías. Nadie sabía qué hacer cuando llegó el momento real. No había prioridades definidas, no había proveedores alternativos identificados, no había RTO ni RPO establecidos.
Lo que debería haberse hecho
Un BCP real define: RTO (Recovery Time Objective: en cuánto tiempo debo estar operativo) y RPO (Recovery Point Objective: cuántos datos me puedo permitir perder). Se revisa anualmente y se simula al menos una vez al año con el equipo.
Renovación planificada del ciclo de vida del hardware
Lo que hizo la empresa
Los discos tenían 5+ años de uso continuo. No había ningún proceso de revisión ni presupuesto para renovación preventiva. Se esperó a que fallaran.
Lo que debería haberse hecho
Inventario del hardware con fechas de adquisición y vida útil estimada. Presupuesto anual para renovación preventiva. Discos de más de 4 años: sustitución preventiva o redundancia adicional.
Separación de responsabilidades y revisiones periódicas
Lo que hizo la empresa
Iñaki era el único responsable de toda la infraestructura. Nadie más verificaba nada. Sin supervisión cruzada, un error puntual se propagó durante más de un año sin detectarse.
Lo que debería haberse hecho
Revisión mensual del estado de backups por parte de alguien distinto al responsable técnico. O contratación de un servicio de backups gestionados que incluya informes de estado mensuales al director general.
El aprendizaje de Rodrigo
«Antes pensaba que el backup era un problema técnico, de Iñaki. Después de lo que pasó entendí que la continuidad del negocio es una responsabilidad de dirección, no del departamento de IT. Si yo no pregunto, si yo no exijo que me demuestren que los backups funcionan, si yo no incluyo esto en el presupuesto anual como una prioridad real... entonces soy yo el responsable de lo que pase.»
Seis meses después del incidente, Fertec contrató un servicio de backup gestionado en la nube con informes mensuales directamente al director general. El coste mensual: 280 euros. El coste del incidente que ya no repetirán: más de 200.000 euros y dos contratos perdidos.
Qué debe hacer tu empresa esta semana
Si tienes más de 10 empleados y tus datos están en servidores locales o en la nube, este artículo va dirigido a ti. No hace falta ser una empresa grande para perder todo. Hace falta, simplemente, no haber comprobado nunca si tu backup funciona de verdad.
1. Haz una prueba de restauración hoy mismo
Coge un archivo al azar de tu backup más reciente e intenta restaurarlo. Si no puedes, o si el backup no existe, tienes un problema urgente que resolver antes de hacer cualquier otra cosa. Un backup no verificado no es un backup.
2. Añade una copia offsite a tu estrategia
Si tu único backup está en la misma red que tus servidores, un ransomware, un incendio o un fallo de hardware puede destruir ambos. Servicios como Backblaze B2, Azure Backup o AWS S3 ofrecen almacenamiento en la nube desde pocos euros al mes con copias inmutables.
3. Configura alertas con escalado real
Las alertas que solo llegan a la persona de sistemas no son alertas, son notas recordatorio. Configura escalado automático: si el responsable no confirma en X horas, la alerta llega también a dirección. Los fallos de disco dan señales durante días antes del colapso total.
4. Define tu RTO y RPO antes de necesitarlos
¿Cuánto tiempo puede estar tu empresa sin acceso a sus sistemas? ¿Cuántos datos puedes permitirte perder? Si no has respondido estas preguntas antes de una crisis, las responderás bajo presión y con información incompleta. Tómate dos horas con tu equipo y documéntalo.
5. Programa una revisión trimestral de infraestructura
Estado de los discos (SMART), antigüedad del hardware, últimas actualizaciones de firmware, verificación de backups, revisión del BCP. Una hora cada tres meses puede ahorrarte meses de recuperación y cientos de miles de euros.
Checklist de mínimos: ¿qué debería tener ya tu empresa?
Si no puedes marcar más de 5 de estos puntos, tu empresa tiene un riesgo operativo real que no está siendo gestionado.
¿Cuándo fue la última vez que restauraste un backup?
Si no tienes una respuesta clara, habla con un especialista. Pueden ayudarte a diseñar una estrategia de backup y continuidad de negocio adaptada al tamaño y necesidades de tu empresa.
Artículos relacionados

Plataformas de videoconferencia, formación y eventos online: análisis completo 2026
Análisis objetivo de las 10 mejores plataformas de videoconferencia, eLearning, webinars y eventos web en 2026: Zoom, Microsoft Teams, Cisco Webex, Adobe Connect, Google Meet, GoTo Webinar, ON24, Hopin, Blackboard Collaborate y Livestorm. Con sistema de valoración, comparativa y guía de elección.

Principales plataformas de ciberseguridad automatizadas todo-en-uno en 2026
Análisis objetivo de las 9 mejores plataformas XDR y de seguridad unificada para empresas medianas en 2026: Microsoft Defender, CrowdStrike, Sophos, Coro, SentinelOne y más. Descubre cuál encaja mejor con tu organización.

NIS2 para empresas: qué es y cómo cumplirla sin ser técnico
Guía práctica sobre la directiva NIS2 para responsables de empresa: qué obliga, a quién afecta, plazos, sanciones y cómo adaptarse sin conocimientos técnicos. Cumplimiento NIS2 en España 2026.