我目前正在使用复制脚本来将我的110G / 2T CentOS服务器备份到2T sftp服务器。
4天过去了,备份只有90G。 这不是问题。 主要问题是; 我有近600Gcaching,在“/user/.cache/duplicity”生成的重复。 这个大小不正常,我该怎么办? 在完成任务后,会重复收缩或删除这些caching文件和文件夹吗? 将重复备份它的caching太(我没有排除/用户文件夹)?
其他信息:我正在使用Hetzner服务器,这是我正在使用的备份脚本: https ://wiki.hetzner.de/index.php/Duplicity_Script/en
此外,我只是从根目录中排除了proc,sys和dev目录(并且从根目录开始备份所有其他内容,因为我想要一个完整的服务器备份)。
根据邮件列表
你将不得不手动排除它..
它拥有你的备份链索引文件(备份库的目录)。 在本地caching它们会加速状态和增量备份等选项。 这些操作需要知道已经备份的工作。 如果他们被caching,他们不需要每次都被传输和解密。
.. ede
其余的似乎是一个长期存在的错误 。
在Debian的bug跟踪器上, 他们推荐
duplicity cleanup --extra-clean --force ....