网站的增量备份

我想定期对我的网站进行存档。 我有lftp脚本通过ftp下载网站内容到今天(date+%y%m%d)目录。 做一个增量压缩备份没有很多重复的最佳方法是什么?

Duplicity可能适合您的需求。

它是增量式的:在执行完全备份之后,所有将来的备份都只是差异文件。 需要注意的是,与其他存储最新状态镜像的备份解决scheme以及重新创build以前备份点的差异文件相反。

它是压缩的: Duplicity是一个encryption的备份(也许对你有好处,因为你被FTP困住了),并且encryption的文件被压缩(据我所知)。 你也可以绕过encryption,只需要一个gzipped备份。 (–noencryption)

它通过FTP工作: Duplicity可以使用许多远程协议(包括FTP),在这种情况下的问题是需要从您的服务器运行重复。 我不相信你可以使用重复性来将远程源备份到本地目标(只是本地源到远程目标)。

在你的情况下,如果你没有在传输数据时寻找压缩的好处,只存储数据,那么你可以保留你的FTP脚本,并且在当前的“映像”被传输之后有临时映像的副本备份到你现有的备份,删除图像。 这样,您将拥有一系列可用于在任何备份点恢复站点的备份文件,而这些文件将仅归档为仅来自上次备份点的更改。

请注意,每隔一段时间进行一次“完整”备份将是明智的,因为重复依赖于从完全备份前进的每个增量备份。

另一种解决scheme(假设再次临时存储本地FTP'd副本是可以接受的),就是简单地使用rdiff-backup 。 这将给你一个镜像站点(作为最后一个备份),过去的备份将被存储为差异向后。 我不确定这些文件是否被压缩,但即使不是,也只能将更改存储到每个备份点的文件中。

backup2l是一个非常简单的工具,可以build立一个增量的zip文件,然后你可以通过FTP下载。

你尝试rsync?