如何从备份中encryption大(20Gb +)压缩文件?

我想从OpenVZ容器中定期encryption创build和压缩的备份文件,然后离开服务器,通过ftp复制到提供程序备份空间。

它们大小不一,从6到50 GB(被压缩后,lzo) 更新 …,并由虚拟化环境Proxmox自动创build。

mcrypt(“代码质量/支持”)或openssl(“不适用于大文件”)的各种评论,使我想知道它们是否合适。 你能推荐什么?

此外:我无法将压缩过程中的备份文件拆分成更小的部分,出于性能方面的考虑,不希望这样做。 我有不好的经历,使用口吻,并希望避免它,如果你想提到这一点。

服务器环境是Debian 7。

其他人则提出了各种适用于stream水线的对称encryption工具,如aespipe 。 我怀疑这样做的效率可能会高一些,因为encryption是一个相当耗费CPU资源的事情,这并不是一个坏build议。

但我build议考虑一个非对称的工具,如gpg 。 引擎盖下的批量encryption仍将通过使用随机密钥的对称密码,但是GPG工具链可用的话,整个密钥pipe理问题变得更加容易。

特别是,使用简单的对称密码来encryption备份,或者致命地破坏安全性(因为同一个密钥用于encryption所有的备份,并且服务器必须定期访问)或者大大增加了复杂性(对于每个备份使用不同的密钥,现在必须手动pipe理它们)。

使用像gpg这样的工具,您可以生成一个用于encryption所有备份的密钥对,而encryption的服务器只需要encryption备份的公用部分。 您可以将私钥分开保存,或者在正常安全的情况下,或者 – 如果业务原因要求,则可以使用标准密钥共享协议来安排将密钥分割成许多个人,其中一些子群需要重构私钥。