Tecnología

El backup que nunca existió

Cómo una empresa mediana perdió 14 meses de datos en un fin de semana por creer que tenían una política de copias de seguridad cuando en realidad no tenían nada. Y el coste fue devastador.

MV

Marcos Vidal

Especialista en Infraestructura y Sistemas

28 de marzo de 2026 · 20 min de lectura

Compartir:
Servidor caído y pérdida de datos en empresa

Los nombres de empresas, personas y datos específicos han sido modificados para proteger la identidad de las partes involucradas. El caso está basado en hechos reales documentados.

Era el lunes de Semana Santa. Rodrigo Peña, director general de Fertec Iberia —una empresa de fabricación de componentes industriales con 140 empleados y 18 años de historia— estaba en la sierra con su familia cuando sonó el teléfono. Era Iñaki, el único técnico de sistemas de la empresa.

«Rodrigo, el servidor principal ha fallado. Un fallo de disco. He intentado levantar el sistema desde el backup pero... hay un problema.»

El problema, que Iñaki tardó varios minutos en articular, era el siguiente: el sistema de backup llevaba catorce meses sin ejecutarse correctamente. Nadie lo había comprobado. Nadie había verificado las copias. Nadie había simulado una restauración. El backup existía sobre el papel, en un procedimiento guardado en una carpeta del servidor. El backup real, el que funciona cuando lo necesitas de verdad, no existía.

Rodrigo tardó un segundo en procesar las palabras. Luego tuvo que sentarse.

I

La empresa que creía estar protegida

Fertec Iberia había crecido de forma constante durante casi dos décadas. Empezaron en un taller de 400 metros cuadrados con cinco personas. En 2026 tenían tres naves industriales, contratos con fabricantes de automoción europeos y un ERP personalizado que gestionaba desde los pedidos a proveedores hasta la trazabilidad de cada pieza producida.

La tecnología, sin embargo, había crecido de forma orgánica y algo caótica. Un servidor comprado en 2019. Un segundo servidor añadido en 2021. Varios discos externos. Un NAS en el despacho de Rodrigo que «alguien» había instalado para «las copias de seguridad». Y un técnico de sistemas, Iñaki, que hacía milagros siendo el único responsable de toda la infraestructura de una empresa de 140 personas.

Cuando en el consejo de administración alguien preguntaba por los backups, la respuesta era siempre tranquilizadora: «Sí, tenemos copias de seguridad automáticas cada noche.» Era verdad. Hasta que dejó de serlo.

«Nadie me preguntó nunca si los backups funcionaban de verdad. Me preguntaban si los teníamos. Y sí, los teníamos. Pero en catorce meses nunca comprobé que se estuvieran ejecutando correctamente. Ese error fue mío.»

— Iñaki Larrea, responsable de sistemas de Fertec Iberia

El problema se había originado en marzo del año anterior, cuando migraron parte del ERP a un nuevo servidor. Durante la migración, la tarea programada que ejecutaba las copias de seguridad nocturnas quedó apuntando a una ruta de red que ya no existía. El script se ejecutaba cada noche puntualmente, escribía un log sin errores visibles, y no copiaba absolutamente nada. Los archivos de log parecían correctos. Solo una revisión minuciosa habría detectado que los ficheros de destino no aumentaban de tamaño.

Iñaki lo descubrió cuando el servidor falló y fue a buscar la copia de la noche anterior. Y no estaba. Ni la de esa noche, ni la de la semana pasada, ni la de los catorce meses anteriores.

II

El fallo que lo desencadenó todo

El servidor principal de Fertec tenía una configuración RAID-5 con tres discos. Teóricamente, el RAID-5 permite que falle un disco sin pérdida de datos, porque la información se distribuye con paridad entre los tres. Es una solución robusta. Pero tiene un punto débil del que mucha gente no habla: cuando falla un disco y el RAID reconstruye con el disco de repuesto, durante ese proceso de reconstrucción la carga sobre los discos restantes es enorme. Y si otro disco tiene sectores defectuosos —cosa frecuente en discos viejos que trabajan bajo estrés— puede fallar también durante la reconstrucción.

Eso fue exactamente lo que ocurrió. El Viernes Santo por la mañana falló el disco número dos. Iñaki recibió la alerta, pero era festivo, estaba de viaje y decidió gestionarlo el martes tras las vacaciones. «El RAID-5 aguanta un disco caído, total era fin de semana largo.» El sábado por la tarde, mientras el sistema seguía funcionando con dos discos, el disco número tres —que llevaba meses con sectores defectuosos sin que nadie lo supiera— cedió definitivamente.

Anatomía del fallo: cómo un RAID-5 puede engañarte

01

Fallo del disco 2 — Viernes Santo, 11:23

El disco 2 del array RAID-5 reporta errores de lectura irrecuperables. El sistema manda una alerta por email a Iñaki. Este decide no actuar hasta el martes.

02

El sistema sigue funcionando (degradado)

Con dos discos, el RAID-5 opera en modo degradado. Los datos siguen siendo accesibles pero ya no hay tolerancia a fallos. Un segundo fallo significa pérdida total.

03

Fallo del disco 3 — Sábado, 17:47

El disco 3, que llevaba semanas con sectores defectuosos no monitorizados, cede bajo la carga adicional. El array RAID entra en estado crítico. Los datos son inaccesibles.

04

Descubrimiento del desastre — Lunes, 09:15

Iñaki, alertado por el segundo aviso, intenta acceder al servidor de backups para restaurar. Descubre que los backups llevan 14 meses sin ejecutarse correctamente. No hay nada que restaurar.

Cuando Rodrigo volvió de la sierra el lunes por la tarde, se encontró con la empresa paralizada. El ERP no arrancaba. Los técnicos de producción no podían acceder a los planos de fabricación. El departamento comercial no tenía acceso a los pedidos activos. Los datos de los clientes, los proyectos en curso, las órdenes de fabricación, los registros de calidad, los históricos de proveedores… todo estaba en esos dos discos fallidos.

Rodrigo contrató ese mismo lunes a una empresa especializada en recuperación de datos. El diagnóstico no fue alentador: los discos tenían daño físico en los cabezales de lectura. La recuperación sería parcial en el mejor de los casos, y llevaría entre dos y cuatro semanas.

Las semanas del colapso

Cómo se desarrolló el peor mes en la historia de la empresa

Viernes Santo · 11:23

Primera alerta ignorada

El disco 2 del servidor principal falla. Iñaki recibe la alerta pero decide esperar al martes. El RAID-5 sigue funcionando en modo degradado. La decisión de esperar costará todo.

Sábado · 17:47

Colapso total del array

El disco 3 cede. El array RAID-5 entra en estado crítico. Todo el servidor es inaccesible. La empresa lleva 14 meses sin backups válidos sin saberlo.

Lunes de Pascua · 09:30

Descubrimiento del vacío

Iñaki descubre que los backups llevan 14 meses fallando silenciosamente. La última copia válida data de marzo del año anterior. 14 meses de datos, evaporados.

Lunes · 15:00

La empresa se paraliza

140 empleados sin acceso a sus sistemas. Las tres naves de producción se detienen. Se contratan especialistas forenses en recuperación de datos. Coste estimado inicial: 28.000 euros.

Semanas 2-3

Reconstrucción manual desesperada

El equipo intenta reconstruir pedidos y órdenes de fabricación desde emails, WhatsApp, cuadernos en papel y memoria. Se recupera menos del 40% de los datos críticos. Los clientes empiezan a llamar.

Semana 4

Recuperación parcial forense

La empresa forense entrega los resultados: 61% de los datos recuperados, con daños e inconsistencias. El ERP no puede ser restaurado directamente. Se decide reconstruir desde cero con los datos parciales.

III

El daño real: números que duelen

Rodrigo había pensado que el problema de los servidores sería caro pero manejable. Quizás unos miles de euros en hardware nuevo y un par de días de caos. Lo que nadie le había explicado nunca es que el coste de perder los datos de una empresa no es el coste de los discos. Es el coste de todo lo que depende de esos datos.

~€74.000

Parada de producción

18 días con producción prácticamente paralizada o severamente reducida. Penalizaciones por retrasos en entregas a clientes de automoción.

€31.500

Recuperación forense de datos

Empresa especializada en recuperación de discos con daño físico. Trabajo en sala limpia, reconstrucción parcial de ficheros y entrega de informe pericial.

€48.000

Reconstrucción del ERP

Reconfiguración del ERP desde cero, migración de datos parciales recuperados, introducción manual de históricos por parte del equipo de administración durante semanas.

€22.000

Horas de empleados perdidas

140 empleados con baja productividad durante 3 semanas. Horas extra no remunerables del equipo de administración reconstruyendo datos manualmente.

€80.000/año

Contratos perdidos

Dos clientes industriales terminaron contratos alegando falta de garantías operativas. Uno de ellos representaba el 12% de la facturación anual.

€29.000

Nueva infraestructura

Servidores nuevos, sistema de backup profesional, solución cloud de respaldo, licencias de monitorización. Una inversión que llevan años sin hacer.

COSTE TOTAL ESTIMADO DEL INCIDENTE

€204.500

Sin contar los contratos perdidos (€80.000/año) ni el daño reputacional con el sector

Para contextualizarlo: una solución de backup profesional en la nube con monitorización, copias inmutables y pruebas de restauración automáticas habría costado a Fertec entre €180 y €350 al mes para su volumen de datos. En doce meses, entre 2.160 y 4.200 euros. Frente a 204.500 euros de pérdida directa y dos contratos perdidos.

Pero el impacto más difícil de cuantificar fue otro: la pérdida de la trazabilidad de 14 meses de fabricación. Fertec tenía contratos con fabricantes de automoción que exigen trazabilidad total de cada componente producido. Sin esos registros, la empresa tuvo que demostrar retroactivamente —con documentos físicos, emails, certificados de proveedor— que sus piezas cumplían los estándares de calidad requeridos. Fue un proceso que duró meses y que puso en riesgo varios certificados de calidad.

«Lo más duro no fue el dinero. Lo más duro fue llamar a nuestros clientes principales el martes después de Semana Santa y decirles que no podíamos garantizarles los plazos de entrega porque habíamos perdido las órdenes de fabricación. Que habíamos perdido sus datos. Esa llamada no se la olvida a nadie.»

— Rodrigo Peña, director general de Fertec Iberia
IV

Qué falló realmente: más allá del disco duro

Sería fácil culpar al disco duro. O a Iñaki por no actuar el Viernes Santo. O al script de backup mal configurado. Pero el verdadero problema de Fertec no era técnico. Era organizativo. Era cultural. Era la suma de una serie de decisiones —o ausencias de decisiones— que se acumularon durante años hasta que un día coincidieron todas en el peor momento posible.

Nadie era dueño del backup

Iñaki sabía que existía el sistema de backup. Rodrigo asumía que funcionaba. Nadie tenía la responsabilidad explícita de verificarlo periódicamente. En seguridad de datos, «asumir que funciona» equivale a no tenerlo.

El plan de continuidad era un documento, no un proceso

Fertec tenía un documento PDF titulado «Plan de Continuidad de Negocio» creado en 2021. Nadie lo había revisado desde entonces. Nadie había hecho un simulacro de restauración. Existía para mostrar en auditorías, no para usarse.

Las alertas existían pero nadie las gestionaba

El servidor enviaba alertas por email cuando un disco fallaba. Esas alertas llegaban a la bandeja de entrada de Iñaki, entre cientos de notificaciones automáticas del sistema. Sin priorización ni escalado, una alerta crítica esperó cuatro días sin ser atendida.

El hardware viejo nunca se planificó para renovar

Los discos del servidor tenían más de cinco años. Los fabricantes de discos duros documentan que la tasa de fallos aumenta exponencialmente a partir del cuarto año de uso continuo. Pero en Fertec no había ningún proceso de revisión de ciclo de vida del hardware.

RAID no es backup

Esta es quizás la confusión más peligrosa y extendida en empresas medianas. RAID protege contra el fallo de hardware, pero no contra borrado accidental, corrupción de datos, ransomware ni múltiples fallos simultáneos. Tener RAID es necesario, pero no reemplaza a una política de backup.

V

Lo que habría cambiado todo

Ninguna de las medidas que habrían evitado este desastre requería un presupuesto de gran empresa ni un equipo técnico especializado. Eran —son— prácticas estándar al alcance de cualquier pyme con una mínima voluntad de implementarlas.

01

La regla 3-2-1 de backups: la base de todo

Lo que hizo la empresa

Un único script nocturno que copiaba al NAS de red. Cuando el script falló, nadie lo detectó durante 14 meses. Cuando el servidor falló, no había nada que restaurar.

Lo que debería haberse hecho

3 copias de los datos, en 2 medios distintos, con 1 copia offsite (fuera de la red local, en la nube o en ubicación física diferente). Si el ransomware o el fallo llega a una copia, las otras dos están intactas.

02

Verificación automática y pruebas de restauración periódicas

Lo que hizo la empresa

Los logs del backup parecían correctos pero no se comprobaba que los archivos de destino tuvieran el tamaño esperado. Nunca se había hecho una restauración de prueba en 14 meses.

Lo que debería haberse hecho

Soluciones de backup modernas (Veeam, Acronis, Nakivo) verifican automáticamente la integridad de cada copia y alertan si el backup no se ejecuta o si el tamaño es anómalo. Prueba de restauración completa cada trimestre como mínimo.

03

Monitorización proactiva del hardware con escalado de alertas

Lo que hizo la empresa

La alerta del disco fallido llegó por email a Iñaki, que estaba de vacaciones. Sin escalado automático, la alerta esperó días sin ser atendida.

Lo que debería haberse hecho

Herramientas de monitorización (SMART, Zabbix, Grafana) con alertas por múltiples canales (SMS, Slack, llamada) y escalado automático: si Iñaki no responde en 2 horas, la alerta sube a Rodrigo. Si un disco reporta sectores defectuosos, se activa protocolo de sustitución inmediata.

04

Plan de continuidad de negocio vivo y probado

Lo que hizo la empresa

El PDF de 2021 existía para auditorías. Nadie sabía qué hacer cuando llegó el momento real. No había prioridades definidas, no había proveedores alternativos identificados, no había RTO ni RPO establecidos.

Lo que debería haberse hecho

Un BCP real define: RTO (Recovery Time Objective: en cuánto tiempo debo estar operativo) y RPO (Recovery Point Objective: cuántos datos me puedo permitir perder). Se revisa anualmente y se simula al menos una vez al año con el equipo.

05

Renovación planificada del ciclo de vida del hardware

Lo que hizo la empresa

Los discos tenían 5+ años de uso continuo. No había ningún proceso de revisión ni presupuesto para renovación preventiva. Se esperó a que fallaran.

Lo que debería haberse hecho

Inventario del hardware con fechas de adquisición y vida útil estimada. Presupuesto anual para renovación preventiva. Discos de más de 4 años: sustitución preventiva o redundancia adicional.

06

Separación de responsabilidades y revisiones periódicas

Lo que hizo la empresa

Iñaki era el único responsable de toda la infraestructura. Nadie más verificaba nada. Sin supervisión cruzada, un error puntual se propagó durante más de un año sin detectarse.

Lo que debería haberse hecho

Revisión mensual del estado de backups por parte de alguien distinto al responsable técnico. O contratación de un servicio de backups gestionados que incluya informes de estado mensuales al director general.

El aprendizaje de Rodrigo

«Antes pensaba que el backup era un problema técnico, de Iñaki. Después de lo que pasó entendí que la continuidad del negocio es una responsabilidad de dirección, no del departamento de IT. Si yo no pregunto, si yo no exijo que me demuestren que los backups funcionan, si yo no incluyo esto en el presupuesto anual como una prioridad real... entonces soy yo el responsable de lo que pase.»

Seis meses después del incidente, Fertec contrató un servicio de backup gestionado en la nube con informes mensuales directamente al director general. El coste mensual: 280 euros. El coste del incidente que ya no repetirán: más de 200.000 euros y dos contratos perdidos.

VI

Qué debe hacer tu empresa esta semana

Si tienes más de 10 empleados y tus datos están en servidores locales o en la nube, este artículo va dirigido a ti. No hace falta ser una empresa grande para perder todo. Hace falta, simplemente, no haber comprobado nunca si tu backup funciona de verdad.

1. Haz una prueba de restauración hoy mismo

Coge un archivo al azar de tu backup más reciente e intenta restaurarlo. Si no puedes, o si el backup no existe, tienes un problema urgente que resolver antes de hacer cualquier otra cosa. Un backup no verificado no es un backup.

2. Añade una copia offsite a tu estrategia

Si tu único backup está en la misma red que tus servidores, un ransomware, un incendio o un fallo de hardware puede destruir ambos. Servicios como Backblaze B2, Azure Backup o AWS S3 ofrecen almacenamiento en la nube desde pocos euros al mes con copias inmutables.

3. Configura alertas con escalado real

Las alertas que solo llegan a la persona de sistemas no son alertas, son notas recordatorio. Configura escalado automático: si el responsable no confirma en X horas, la alerta llega también a dirección. Los fallos de disco dan señales durante días antes del colapso total.

4. Define tu RTO y RPO antes de necesitarlos

¿Cuánto tiempo puede estar tu empresa sin acceso a sus sistemas? ¿Cuántos datos puedes permitirte perder? Si no has respondido estas preguntas antes de una crisis, las responderás bajo presión y con información incompleta. Tómate dos horas con tu equipo y documéntalo.

5. Programa una revisión trimestral de infraestructura

Estado de los discos (SMART), antigüedad del hardware, últimas actualizaciones de firmware, verificación de backups, revisión del BCP. Una hora cada tres meses puede ahorrarte meses de recuperación y cientos de miles de euros.

Checklist de mínimos: ¿qué debería tener ya tu empresa?

Backup automático diario verificado
Al menos una copia offsite (nube o ubicación distinta)
Prueba de restauración documentada en los últimos 3 meses
Alertas de fallo con escalado a dirección
Monitorización SMART de discos
Inventario de hardware con antigüedad
RTO y RPO definidos y documentados
Plan de continuidad revisado en los últimos 12 meses
Simulacro de recuperación realizado en el último año
Presupuesto anual asignado a infraestructura y backup

Si no puedes marcar más de 5 de estos puntos, tu empresa tiene un riesgo operativo real que no está siendo gestionado.

¿Cuándo fue la última vez que restauraste un backup?

Si no tienes una respuesta clara, habla con un especialista. Pueden ayudarte a diseñar una estrategia de backup y continuidad de negocio adaptada al tamaño y necesidades de tu empresa.

Artículos relacionados