Establecer una estrategia de backup
Con la cantidad de datos digitales, tanto personales como profesionales, que muchos de nosotros acumulamos hoy en día, tener una buena estrategia de copias de seguridad es algo fundamental. La perdida parcial o total de datos puede convertirse en un real desastre.
No es un tema especialmente apasionante para la mayoría de usuarios y según las necesidades, se puede volver bastante técnico. Quizás por eso, no es infrecuente que particulares, trabajadores freelance o empresas lo descuiden de forma alarmante.
¿Qué es un backup?
El propósito del backup es asegurarnos que nuestros datos digitales sobrevivirán a los riesgos a los que están expuestos. En principio, puede ser un proceso tan sencillo como copiar todos nuestros archivos en otro dispositivo, guardar el backup en un lugar seguro y utilizarlo para restaurar los datos en caso de problema. Si utilizamos un solo ordenador y que todos nuestros datos caben en un disco duro, et voila.
Ahora bien, en el mundo audiovisual, para muchos usuarios las cosas no son tan fáciles. Es habitual que proyectos de audio, de video o fotográficos, incluyan archivos diseminados en múltiples dispositivos y sus tamaños pueden implicar que rápidamente necesitemos gestionar GB o TB de datos.
Amenazas
Existen numerosas técnicas y herramientas (que van más allá del ámbito generalista de este artículo), para crear y gestionar copias de seguridad. A su vez, técnicas y herramientas concretas suelen responder a tipos concretos de amenazas. A continuación, describiremos esa principales amenazas desde una perspectiva general, sin pretender ofrecer la visión ni los conocimientos de un experto en seguridad informática.
Fallo de dispositivo
Cualquier tipo de dispositivo de almacenamiento puede fallar. Los discos duros, sean mecánicos o de tipo SSD no son una excepción. Por eso, es fundamental tener copias de seguridad en dispositivos separados.
Virus
Los virus se pueden propagar desde un dispositivo hacia otro, comprometiendo múltiples copias de nuestros datos. Cualquier dispositivo de escrituras múltiples es potencialmente vulnerable.
Daños maliciosos
Cualquier ordenador conectado a internet es teóricamente vulnerable a ataques de hackers. Si bien un firewall es una buena protección, la mejor solución frente a este tipo de amenazas son las copias offline y preferentemente offsite.
Fallos en volúmenes y directorios
La información de volúmenes y directorios en los medios de almacenamiento son mapas de la ubicación de los archivos, así como tablas de contenido. Si esa información se corrompe, nuestro ordenador puede no ser capaz de acceder a los archivos de un disco duro.
Corrupción durante la transferencia
A cada transferencia de datos de un dispositivo a otro, existe la posibilidad de una corrupción de los datos.
Sobrecarga en la red eléctrica
Una sobrecarga en la red eléctrica, debida a tormentas o averías en maquinaria de nuestra compañía eléctrica puede provocar daños irreparables en nuestros dispositivos informáticos.
Robos
Los robos pueden implicar la perdida de nuestras copias primarias así como nuestras copias de seguridad. Las copias offsite son las mejor manera de prevenir ese riesgo.
Daños por fuego o agua
En daños por incendios o inundaciones, también existe el riesgo de perder múltiples copias de nuestros datos.
Error humano
Una de las principales causas de perdida de datos es simplemente el error humano: modificación o borrado accidental de datos.
Copia primaria vs backup
Puede parecer bastante obvio, pero no podemos establecer una buena estrategia de backup si no sabemos que datos tenemos que respaldar. Por lo tanto, lo primero consiste en designar una copia primaria de nuestros datos. Esta es nuestra copia de trabajo.
Como he señalado antes, en el caso de trabajar con aplicaciones que fraccionan los proyectos en múltiples recursos repartidos en múltiples dispositivos, determinar como está estructurada nuestra copia de trabajo puede no ser muy intuitivo. Para ello, es fundamental entender el flujo de trabajo de nuestra aplicación.
En el caso de las DAWs, más allá de las peculiaridades de cada una, todas siguen un esquema parecido: son aplicaciones que trabajan sobre unos objetos que hacen referencia a unos archivos. Para ello, utilizan un archivo principal que es propio de la aplicación: el archivo de sesión o de proyecto. Desde la sesión, se pueden manipular los objetos con herramientas, comandos y funciones. Pero ese archivo de sesión no contiene ningún dato de audio, solo contiene objetos que hacen referencia a archivos de audio contenidos en dispositivos de almacenamiento a los que nuestro sistema puede acceder.
Una de las consecuencias en relación a la gestión de copias de seguridad, es que copiar dicho archivo de sesión de un dispositivo a otro, no crea una copia del proyecto completo, tal como lo haríamos con un simple documento de texto, por ejemplo.
Para crear un backup, hay que poder determinar la totalidad de los recursos a los que hace referencia el archivo principal del proyecto.
La mayoría de DAWs tienen comandos que permiten crear copias de un proyecto incluyendo automáticamente todos los recursos necesarios. Es la opción más recomendable ya que permite centralizar recursos almacenados en múltiples dispositivos, en una única ubicación.
Este tipo de funciones, aunque esenciales, no sustituye la necesidad de una buena comprensión de como nuestra aplicación estructura un proyecto y sus recursos asociados. Algunos problemas solo se solucionan gracias a esta comprensión.
La regla 3-2-1
Una vez solucionado el tema de la copia primaria, la estrategia de duplicación más popular y con un nivel de seguridad alto, es la que sigue la regla 3-2-1. Su nombre sirve para recordarnos la manera de proceder.
- Se recomienda conservar 3 copias (la de trabajo y 2 backups) de nuestros datos importantes.
- Se recomienda conservar los datos en dos tipos de soportes diferentes.
- Se recomienda almacenar 1 backup en un lugar diferente a las otras 2 (offsite).
Si bien se considera la estrategia ideal, no siempre es posible ponerla en practica de manera estricta. La utilización de diferentes tipos de soportes, como soportes ópticos por ejemplo, puede resultar impracticable. En este caso, muchos usuarios optan por realizar todas sus copias en discos duros. Es un compromiso aceptable mientras se mantenga la regla de las 3 copias, una de ellas con almacenamiento fuera de sitio.
Esa última opción quizás sea la más desatendida por la mayoría de usuarios. Pero de las posibles amenazas que describimos anteriormente, algunas solo tienen respuesta con esta practica. Responde a lo que llamamos “Disaster recovery”: una copia a la que solo recurrimos en caso de perdida de datos tanto en nuestra copia de trabajo como en nuestro primer backup. Es la eventualidad menos probable a la que nos podamos enfrentar, pero hay que cubrirla.
Por sus características, es un tipo de copia que podemos realizar con menor frecuencia y para la que podemos asumir un tiempo de acceso más lento.
Se puede poner en marcha de forma sencilla guardando un disco duro con nuestra tercera copia, en casa de algún familiar o amigo, por ejemplo.
Evidentemente, no es una solución empresarial e incluso para un usuario individual, se puede volver poco practica o incluso inviable si la cantidad de datos que tenemos que gestionar es muy grande o las actualizaciones son muy frecuentes.
En este caso, la opción más profesional y cómoda es el almacenamiento online. Hoy en día la oferta es muy amplia y los precios son cada vez más competitivos. Es la opción de muchas empresas que tienen que conservar gran cantidad de datos y es totalmente valida para usuarios individuales o pequeñas empresas.
Existen varios tipos de ofertas y convendrá escoger la que más nos conviene en función de nuestras necesidades. Si bien el concepto común es ofrecernos cierta cantidad de espacio en unos dispositivos de almacenamiento offsite a los que accedemos a través de internet, unas están más enfocadas al almacenamiento online (cloud storage), como Dropbox o OneDrive, otras están más enfocadas al backup online (cloud backup), como Crashplan o Backblade y algunas son híbridas, como IDrive. Según el tipo de enfoque, varían las herramientas, las funcionalidades y las tarifas.
Personalmente, he optado por uno de los servicios de almacenamiento que ofrece AWS, el S3 deep archive, pensado para un tipo de datos con acceso muy poco frecuente. Esto significa básicamente que las tarifas de almacenamiento son muy bajas y se cobran por GB almacenado/mes. La contrapartida es que, en caso de necesidad de acceso a los datos, existe una tarifa por GB descargado desde los servidores S3 hacia internet. Teniendo en cuenta que la probabilidad de necesitar acceder a mi tercer backup es muy baja, es posible que nunca tenga que pagar por ese concepto. Por supuesto, en caso contrario, he calculado que el precio era asumible.
Cualquiera que esté interesado por ese tipo de solución deberá estudiar el coste mensual o anual del espacio que necesita, así como las herramientas que ofrece el servicio (tipo de acceso, archivos compartidos, sincronización, encriptación, control de versiones, control de coherencia, gestión del ciclo de vida…), con sus eventuales costes anexos.
Conclusión
Para concluir, recordaré la celebre frase del fotógrafo Peter Krogh:
“Hay dos tipos de personas en el mundo, los que han tenido un fallo de disco duro y los que lo tendrán”.
Dando por hecho que algún día todos nos enfrentaremos a ese tipo de problema, que solo se quede en una anécdota o se convierta en un día desastroso depende exclusivamente de la estrategia de backup de cada uno y en el peor de los casos, su ausencia total.