加快xfsrestore

我pipe理一个共享(nfs和samba)主目录的开发环境,这些主目录被大量使用和非常大。 我为大约50个用户使用了2TB分区。 我知道这是慷慨的,但我宁愿购买硬件,而不是严格的配额,任何重要的东西在我们的git回购或者人造的商店里。

该文件系统是XFS,它运行在一个相当健壮的服务器(几年,16核心,24GB的RAM)与电池支持外部RAID。 我xfsdump到每四个星期发生一次级别为0的另一台服务器,并每天晚上增量。 备份完成后,脚本会恢复到另一个build筑物中的热备用的第三台机器,以防主要故障或build筑物烧毁。

但是,如果用户要求我恢复一堆文件,只要做L0需要10个小时。 在顶部添加几个级别,可以轻松地花两天时间。 这显然是荒谬的,我该怎么做呢?

我看到它的方式,我有几个select:

  • 以另一种格式备份我的非灾难备份。 例如使用一个ZFS分区,rsync它,然后每天晚上快照。 分享出来,让用户抓住自己的恢复。
  • 拆分备份(所以ac,df等在他们自己的转储)。 这意味着我不能做增量分配,并且很难做好(如果一个用户在家里有500GB的话)。
  • 以某种方式得到xfsrestore /转储更聪明,并生成一个索引来保存通过整个文件(这是我的首选选项,但似乎不可能)。

哪个是最好的select? 感觉就像我做错了,我错过了什么?