我在S3(这是我的主文件主机)托pipe200 GB的产品图像。 我需要将数据还原到其他地方吗?还是像S3一样安全? 我一直在尝试将S3存储桶安装到EC2实例,然后每晚做一次rsync备份。 问题在于它大约有三百万个文件,所以需要一段时间才能生成不同的rsync需求。 备份实际上需要大约3天才能完成。 任何想法如何做到这一点更好? (如果甚至有必要?)
您已进入Amazon EC2 EBS支持的Windows映像010的简介备份… 我一直在浏览我的大脑,为我们运行SharePoint Services的单个Windows 2008服务器find一个简单的备份策略。 这是具有一个数据量的一台服务器的EBS支持的映像。 我不需要任何异国情调。 我只需要一个“每日”备份(丢失一天的数据不是灾难性的)。 我们创build并保存了EBS支持的AMI映像(Windows 2008),我们正在使用它。 我们开始通过简单地创build一个新的EBS AMI映像来进行备份。 这非常简单,但是在创build映像的前10到15分钟内运行的服务器会处于脱机状态 – 这并不理想。 创build备份的标准方式似乎是创build连接到正在运行的实例的卷的快照。 再次,这是非常简单的,服务器在快照生成过程中保持可用。 明显的Catch-22是你不能直接从快照启动一个新的实例。 我知道如何将正在运行的实例绑定到S3存储,然后从S3存储桶中注册AMI。 这使我可以捕获正在运行的实例的备份,如果运行实例丢失,请从S3存储区注册AMI,然后启动新的AMI以恢复实例,但这看起来确实令人费解,看起来很荒谬在AWS控制台和Firefox的S3 Organizer插件之间来回滚动以实现这一点。 (请不要提及命令行的方法,这是一个010级的课程)。 从玩EBS支持的图像,下面的方法似乎适用于我(全部在AWS控制台内完成): 1.对于备份,只需根据需要快照系统卷(/ dev / sda1)即可。 2.如果丢失正在运行的实例,请执行以下操作:a。从上次快照备份创build新卷b。启动另一个启动AMI实例(必须由EBS支持)c。停止此实例。 d。从新停止的实例中删除现有的系统卷并丢弃。 e。将新创build的卷作为系统卷(/ dev / sda1)添加到已停止的实例。 f。重新启动新的实例。 我已经testing了几次,它似乎为我工作。 问:这种方法有什么问题吗?
我正在devise我的第一个备份scheme。 我对pipe理数据备份完全陌生,有一些我不完全理解的概念。 这是我到目前为止,以及我将使用什么设备。 只有三台服务器可供备份,总数据大约为200GB。 我将在周六进行每周完整备份,然后在周一至周五晚进行差异备份。 还有一个月底的完整备份,将被存储在异地进行灾难恢复。 正在使用的设备:-8插槽磁带备份驱动器-LTO2磁带-Backup Exec 12.5与Exchange和SQL代理程序 我将使用两套磁带,第一周为第一周,第二周为另一周,每隔一周来回更换一次。 所以我的问题是,每套中应该使用多less个磁带? 由于备份驱动器最多可容纳8个磁带,因此我必须使用8个磁带吗? 如果我less投入,它会被抛弃吗? 其次,由于每个星期晚上的差异备份最多可能只有5G左右,我需要在媒体池中放入5个LTO2磁带(每个磁盘容量高达400Gb),每个磁带一个磁带? 或者是足够的,因为理论上可以持续多周的差异? 我不明白的是,如果BE每天select一个新的磁带,或者如果它将继续附加到相同的磁带,直到它满了,然后滚到下一个。 也许更简单的问题是,如果你有上面列出的备份设备和服务器备份,你的备份devise是什么? 非常感谢….
我无法find备份qcow2 kvm客人的任何信息。 我对guest虚拟机的运行状态并不是很感兴趣,只是文件系统。 这个问题build议使用savevm但是会创build一个快照。 我想远程备份文件系统。 有没有比以下更好的方法: 暂停virt_machine #暂停虚拟机 rsync –sparse /home/vm/image.qcow2 /tmp/image.dec_14_2010.qcow2#将图像复制到同一个驱动器上 恢复virt_machine rsync –sparse /tmp/image.dec_14_2010.qcow2 ssh:// backup @ backupmachine:/ vmbackups 这有几个缺点。 首先,复制一个巨大的图像文件需要相当长的时间。 其次,我必须始终确保我有足够的空间来备份我的机器。 这并不理想。 还有其他更好的pipe理KVM备份的方法吗? 谢谢。
备份MySQL服务器的最佳方法是什么? 我想要一个方法,不需要closures服务器。 有必要像InnoDB热备份 ,或者我可以使用MySQLpipe理员工具中提供的备份工具。 一个人比另一个人有什么优势?
我们在内部网上有一个文件夹结构,其中包含大约80万个文件分成大约4000个文件夹。 我们需要将其同步到我们的DMZ中的一小群机器。 结构的深度很浅(从来没有超过两层深)。 大多数文件永远不会改变,每天有几千个更新的文件和1-2000个新文件。 这些数据是在源数据已被清除的地方维护的历史报告数据(即,这些数据是源数据足够老的归档和删除的最终报告)。 同步每天一次就足够了,因为它可以在合理的时间内发生。 报告是在一夜之间生成的,我们在早上同步第一件事情作为计划任务。 很显然,由于这样的文件很less有变化,我们可以从增量复制中受益匪浅。 我们已经尝试了Rsync,但是只需要8到12个小时就可以完成“build立文件列表”的操作。 很显然,我们正在快速超越rsync的能力(12小时的时间太长)。 我们一直在使用另一种名为RepliWeb的工具来同步这些结构,并且可以在大约45分钟内完成一次增量传输。 然而,看起来我们已经超出了限制,它开始看到文件显示为删除时,他们不(可能是一些内部内存结构已经用尽,我们不知道)。 有没有其他人遇到这种大型同步项目? 有什么devise来处理像这样的同步大文件结构?
我有一个Ubuntu服务器,我在每次启动时自动挂载外部硬盘驱动器。 为此,我在根分区上创build了一个空文件夹,并将驱动器挂载到该文件夹的“内部”。 但是,如果在驱动器未正确安装时对此path执行备份,该怎么办? 备份将填满我的根分区! 我可以通过执行以下操作确保每次安装驱动器: sudo mount -a 每次备份前 但是,确保数据永远不会写入空的装载文件夹的最佳实践是什么(除非外部硬盘驱动器是真正安装的)? 这可以解决没有脚本? 例如说权限? 什么是最佳实践?
我有相当多的小数据文件,但他们占用大约50 GB,我需要他们转移到不同的机器。 我试图想到最有效的方法来做到这一点。 我的想法是gzip整个事情,然后rsync和解压缩,依靠rsync -z进行压缩,gzip然后使用rsync -z。 我不确定哪个是最有效的,因为我不确定rsync -z是如何实现的。 任何想法的select将是最快的?
在这一刻,我们使用Visual SVN,我们正在备份整个存储库目录的视觉SVN。 这为我们的svn引擎中的每个存储库备份整个数据。 我很好奇,如果我能在紧急情况或灾难的情况下恢复这些文件? 你们中的任何一个有这个恢复程序的经验? 谢谢。
我想build立一个文件服务器进行备份。 服务器需要在混合的Windows / Linuxnetworking中全天候可用,但服务每天不得超过1小时。 这就是为什么耗电是我的首要任务 。 你认为最好的硬件是什么? 那么软件呢? 你build议一个Linux发行版吗? 编辑1:服务器应该采取1到4太字节的驱动器,我不瞄准速度,冗余是不是必须的,但将不胜感激,如果不是很昂贵。 我的预算是有限的。 编辑2:如果我能得到一个路由器或无线接入点来做这个工作(使用USB端口,可能是修改后的固件),那么这将是一个好主意。 任何build议?