copias incrementales
Hola a todos.
Me gustaría desarrollar un sistema de backup via FTP. La idea: El usuario configura los directorios de su ordenador que desea tener salvaguardados, la direccion del servidor FTP donde desea enviarlo, el usuario y su contraseña. Mediante las "tareas programadas" del windows lanzo un programa que ha determinada hora comprima y envie la información de dichos directorios al servidor FTP indicado.
Mejorando el algoritmo, puedo llevar un control de los archivos enviados de manera que sólo comprimo y envío los que se hayan modificado o creado desde la última salvaguarda. Pero me encuentro que hay ficheros excesivamente grandes (de 500 MB o más) que pueden estar modificándose a diario (bases de datos) pero sólo varía en 0,5 o 1 MB como mucho, el resto de información no varía.
Se me ocurrió que podría crear un nuevo archivo con las modificaciones habidas desde su última actualización, de manera que cuando se enviara al servidor FTP se realizara algún proceso por el cual se "añadieran" las modificaciones al archivo que ya estaba salvaguardado, evitando tener que enviar de nuevo los 500 MB.
Busqué en internet y encontré algo parecido a lo que quiero hacer, lo llaman tecnología FASTBIT, desarrollada por Novastor, y hay varias empresas que lo explotan para ofrecer salvagarda remota de datos.
¿Teneis algún algoritmo en vuestros fondos de armario que haga esto o que me sirva de punto de partida?
Gracias a todos.
|