从服务器复制时,我总是使用以下命令: rsync –progress -avze ssh user@host:/path/to/files ./here 。 然而,一个心灵的朋友告诉我,我可以简单地做rsync –progress -avz user@host:/path/to/files ./here 。 所以问题是,如果你不需要-e ssh为什么它有吗?
我正在考虑实现一个非常大的存储服务器作为其他几个服务器(所有基于Linux的)的现场NAS。 非常大,我的意思是介于4TB和20TB之间的可用空间 (尽pipe实际上我们不太可能把它做成20TB)。 存储服务器为了保证数据的安全性和性能,将采用RAID 10,但我们仍然需要备份解决scheme,包括非现场备份。 我的问题是: 你如何备份这么多的数据!? 这不像我可以连接一个便携式硬盘驱动器,并传输文件。 我们目前没有其他设备有这么多的存储空间。 我是否需要为第二个非现场存储服务器预算,还是有更好的解决scheme?
我们有一个内部Web服务器(虚拟化,托pipeReviewBoard,但不是超级相关的),而且我们有一个相对一致的失败模式,NFS挂载失败导致/填满。 发行版是Ubuntu(不要问)如果一个解决scheme依赖于不同的发行版,实现起来会慢一些。 备份正在执行/ mnt / backup /,这应该是NFS挂载到另一个系统。 遗憾的是,当挂载失败或丢弃时,备份将在根文件系统上执行,正如您可以想象的那样,在/满之前不需要太久,然后服务就开始失败。 已经讨论了许多可能的解决scheme。 监视/ mnt /备份,并确保它不是根。 也许是一个cron工作。 首先使用/ mnt / protected / backups,然后mount / protected首先到一个小文件系统,也许是一个循环挂载到本地文件,所以不太可能失败。 Chmod a-rwx / mnt / backups(根文件系统挂载点)。 我不确定是否安装了受保护的导演会工作,我想是的。 在挂载的树上创build一个名为“Backups”的目录,然后创build软链接“ln -s / mnt / backup / Backups / Backups”。 除非安装/ mnt / backup,否则使用/备份进行备份将失败,因为本地树不包含子目录。 检查目录是否正确安装在备份脚本中。 我感兴趣的是对这些方法的反馈意见,优点缺点或者其他任何人们用来作为保护根文件系统的标准方法的方法。
我正在寻找关于备份我目前的6个vm的build议(并且很快会增长到20个)。 目前我正在运行一个两节点的proxmox集群(这是一个debian库,使用kvm进行虚拟化,并使用自定义Web前端进行pipe理)。 我有两个几乎相同的盒子,amd phenom II x4和华硕主板。 每台机器有4 500 GB sata2硬盘,1个用于proxmox安装的os和其他数据,3个使用mdadm + drbd + lvm在两台机器之间共享1.5 TB的存储空间。 我将lvm映像挂载到所有虚拟机的kvm。 我目前有能力从一台机器到另一台机器进行实时传输,通常在几秒钟之内(在m $ sql服务器上运行win2008的最大虚拟机大约需要2分钟)。 我正在使用proxmox的内置vzdump实用程序来拍摄虚拟机的快照,并将这些快照存储在networking上的外部硬盘上。 然后我有jungledisk服务(使用rackspace)同步vzdump文件夹进行远程异地备份。 这一切都很好,但它不是很有伸缩性。 首先,备份本身可能每晚需要几个小时。 随着jungledisk的块级增量传输,同步只传输一小部分数据异地,但仍需要至less半小时。 当然,更好的解决scheme是让我能够立即获得两个时间点的差异(比如从上午6点到上午7点写的),然后将其压缩,然后将该差异文件发送到备份服务器,该备份服务器将立即转移到远程存储在机架上。 我已经看了一些zfs,它是发送/接收的能力。 这与bzip中的数据pipe道或什么东西似乎是完美的。 但是,使用zfs实施nexenta服务器似乎需要至less一个或两个以上的专用存储服务器向proxmox服务器提供iSCSI块卷(通过zvol's ???)。 如果可能的话,我宁愿保持设置尽可能小(即没有单独的存储服务器)。 我也简要阅读了关于zumastor。 看起来它也可以做我想做的事,但似乎在2008年停止了发展。 那么,zfs,zumastor还是其他?
我正在尝试为某些客户端制定一个备份策略,并且倾向于进行远程备份(已经使用rdiff-backup进行内部/位置备份)。 每隔一段时间需要一次完整备份是否合理? 由于重复性递增,每个增量备份依赖于前一个增量,并且都严重依赖于上次完整备份。 如果这变得腐败,坏事发生。 一个相关的问题: Duplicitytesting增量备份是否一致? 假设我确实需要每隔一段时间进行一次完整备份, 那么重复性如何有效地创build完整备份? 是否可以检查文件签名,并从以前的完整备份/增量复制未更改的数据? 基本上创build一个新的“完整的”档案传输新的/改变的数据和合并现有的未改变的数据? 现在我担心需要运行一个完整的备份,但是一致的大带宽使用完整备份将会使得这对一些客户来说是不合理的。
我有一个运行Web服务器的EC2实例,将用户上传的文件存储到S3。 这些文件是一次写入,永远不会改变,但偶尔会被用户检索。 我们每年可能会累积大约200-500GB的数据。 我们希望确保这些数据是安全的,尤其是意外删除,并希望能够恢复被删除的文件,而不pipe其原因。 我已经阅读了关于S3桶的版本特性,但我似乎无法find没有修改历史的文件是否可以恢复。 有关版本的信息,请参阅AWS文档: http://docs.aws.amazon.com/AmazonS3/latest/dev/ObjectVersioning.html 在这些例子中,他们没有显示数据上传的场景,但从未修改过,然后被删除。 这种情况下删除的文件是否可恢复? 然后,我们认为我们可以使用对象生命周期pipe理将S3文件备份到Glacier: http://docs.aws.amazon.com/AmazonS3/latest/dev/object-lifecycle-mgmt.html 但是,这似乎对我们不起作用,因为文件对象不会被复制到冰川,而是移动到冰川(更准确地说,它似乎是一个对象属性被改变,但无论如何…)。 因此,似乎没有直接的方法来备份S3数据,并且将数据从S3传输到本地服务器可能是耗时的,并且可能随着时间的过去而导致显着的传输成本。 最后,我们认为我们每个月都会创build一个新的存储桶来作为每月的完整备份,并在第1天将原始存储桶的数据复制到新的存储桶中。然后使用诸如duplicity( http://duplicity.nongnu.org/) )我们会每晚同步备份存储桶。 在本月底,我们会将备份存储桶的内容放入Glacier存储中,并使用原始存储桶的新当前副本创build新的备份存储桶并重复此过程。 这似乎是可行的,并最大限度地减less了存储/传输成本,但我不确定是否允许直接从桶到桶的传输,而不是首先将数据放到控制客户端。 所以,我想这里有几个问题。 首先,S3版本是否允许恢复从未修改过的文件? 有什么方法可以“复制”从S3到冰河的文件,我已经错过了? 可以直接在S3存储桶之间进行复制或其他工具传输文件以避免传输成本? 最后,我在备份S3数据的方法中脱颖而出吗? 预先感谢您提供的任何见解! 更新 亚马逊最近宣布版本化现在与生命周期规则一起工作
我们正处于P2V大部分networking的中间,所以当前的备份方法可能是最糟糕的 – 备份代理仍然安装在客户操作系统上,备份设备将其尽职地拉到磁带上,一个文件在一次。 我怀疑有一个聪明的方法来在虚拟机上脚本(PowerShell?)挂起,然后备份.vhd文件,并取消挂载虚拟机。 这似乎会提供巨大的速度优势,同时丢失文件级恢复(对于DC和应用程序服务器可能是最好的)。 你敲定了什么方法/政策?
您推荐使用哪种软件将Amazon S3用作日常备份的占位符? 我需要它完全自动化,并且容易恢复数据。
在生产环境中用于Linux服务器的备份解决scheme是什么? 你更喜欢开源还是商业产品? 你认为什么是备份软件的基本function? 你不推荐哪些产品? 备份软件select有什么常见的缺陷?
我想在所有备份磁带上启用encryption。 我或多或less知道如何在技术上做到这一点,但是实现这一点的程序和人力因素是棘手的。 我使用带有bacula的HP LTO4驱动器,它没有任何密钥pipe理function。 实际上,它对硬件encryption的支持是在读写之前调用外部脚本来设置驱动器上的密钥。 我的问题: 我应该如何跟踪哪些磁带有encryption? 我已经有几百个没有encryption的磁带了。 即使我花时间用encryption来重新编写它们,也会有几个月的重叠,有些有重叠,有些则没有重叠。 在阅读给定的录像带之前,bacula如何知道是否设定了密钥? 即使设置了密钥,驱动器是否足够聪明以读取未encryption的磁带? 如果关键是妥协,我们将不得不改变它,我们将有#1相同的问题。 如果密钥丢失,我们实际上已经丢失了所有的备份。 我怎样才能减轻这个风险而不增加风险呢? 钥匙是否应该定期更换? 每年一次? 最佳做法是什么? 大型ISV备份系统如何处理这些问题?