我目前的任务是将现有的服务器升级到(至less更多的)专业标准 – 尽可能不中断最终用户。 为了有一个适当的回滚,我需要备份现有的服务器的根FS,这是目前在主磁盘分区ext4 – 而不是LVM,这将使整个显示只是一个手指锻炼。 我想避免closures服务器。 在这种情况下甚至有可能吗?
我制作了一个创buildEC2卷快照的脚本。 该脚本查看哪些实例正在运行,哪些卷连接到这些实例,然后为这些卷创build快照,而忽略剩余的卷。 使用describe-instances ,我得到预留ID,而不是实例ID。 这是令人困惑的,但它是如此。 当一个实例启动时,为该实例创build一个保留。 我仍然对预订概念感到困惑。 附注:我知道什么是保留实例,这与我在这里描述的不同。 “保留实例”意味着您租用一年或两三年的实例,并为此降价。 所以你预留了一年的t2.medium,如果你不使用它,你仍然付钱,但如果你使用它,它比正常便宜。 现在回到“预订ID”。 AWS FAQ说: EC2启动的每个实例都有一个预留ID。 预留ID与实例启动请求具有一对一的关系,但如果使用相同的启动请求启动多个实例,则可以与多个实例关联。 那么这个SE问题: 亚马逊EC2中“预订”的目的是什么? 目前尚不清楚预订ID究竟代表什么 如果一次启动一个实例,则每个实例都有自己唯一的预留ID。 何时或如何将单个预留ID链接到多个实例? 它可以链接到几个不相关的实例吗? 说我有一个networking服务器和一个数据库服务器。 我可以在一个预订ID下启动它们吗? 或者,可以将保留ID仅链接到多次启动的一个实例,如用于负载平衡目的。 在我们的情况下,所有实例都有一个唯一的预留ID,但是我想知道在哪些情况下,这可以改变,我正在使用describe-instances运行的脚本。
我想要一个强大的方法,在运行时,对qcow2文件的KVM VPS进行备份。 经过长时间的search,我发现我们可以使用rsync进行实时备份。 我使用以下命令进行rsync: rsync -avh /vms/base.qcow2 /backup/backup.qcow2 它工作正常。 但是,如果在由于写入和删除操作(如安装新软件或更新)而更改VPS时进行备份,恐怕可能会损坏备份qcow2映像。 因此,从现场VPS的快照备份似乎更有趣的select。 我使用以下命令来进行运行VPS的备份: 1.创build快照: qemu-img create -f qcow2 -b base.qcow2 snapshot.qcow2 2.以原始图像格式(.img)转换快照: qemu-img convert -O raw snapshot.qcow2 /backup/backup.img 恢复VPS: 3.在qcow2图像中转换原始图像: qemu-img convert -O qcow2 /backup/backup.img base.qcow2 然后我们可以通过virsh create base.xml命令启动VPS。 即使这个方法也能正常工作,但我仍然不确定这是否是正确运行VPS的备份方法。 我在这里和这里find了很好的关于qemu-img命令的文档。 但是他们没有提到在原始图像中转换实况VPS的快照。 哪种方法更适合直播VPS备份? 转换原始图像中的快照是否安全? 如果我能得到很好的详细文档,了解快照和基本文件在某些情况下的行为,这将是非常有用的。 也许我们也可以将base qcow2映像转换成原始备份文件,而不是转换快照。 所以命令stream将是: 1.创build快照 2.将base qcow2转换为备份原始图像 3.将快照更改提交到基本映像 4.删除快照 我试过这个,在5GB的小VPS上工作的很好。 但是当VPS规模巨大时,是否有可能出现错误或VPS损坏? 提前致谢…
我想了解NAS上的快照如何工作。 假设我在NAS上拥有10GB的份额。 我创build一个1GB的文件。 每日拍摄快照。 之后,我删除文件,但快照仍然存在。 我将有多less可用空间? 我认为它不会让我覆盖快照点的空间,我会有9GB的可用空间吗?
每日EBS支持的EC2快照应保留多久? 我们使用ec2-automate-backup来备份(日常)两个EBS卷 – 操作系统和数据 – 与Web应用程序有关。 如果我明白,如果发生故障,我们可以从最近的快照创build新的实例。 不过,我认为这些快照是增量式的,尽pipe每个列表(在AWS控制台中)的大小与创buildEBS卷的大小相同,但我认为它们只是logging更改,是吗? ? 这绝对是我对快照理解的地方,虽然我不明白如果我们删除旧的快照,我们可以确保保留所有需要的数据,因此我不知道应该多久才能挂断。 更新时刻后来,我发现这似乎表明我可以从字面上删除除了最近有罪不罚之外的所有。 如果是这种情况,并认为这可能对其他人有用,我可以自己回答,或者如果太明显,可以随意closures它。
我有很多vdi快照,比如50或70张快照。 我想有一个简单的vdi与当前状态。 这些快照占用太多的磁盘空间,不需要作为快照。 我知道,如果我打电话 VBoxManage clonehd thedisk.vdi thedisk-full.vdi (50-70 times) VBoxManage clonehd {uuid-of-snapshot}.vdi thedisk-full.vdi –existing 我会得到我想要的。 但这需要很长时间(我的硬件和16G的初始磁盘大小超过了5个小时)。 当然,我尝试VBoxManage snapshot delete ,这是奇怪的:在停止的机器上不工作,可以在运行机器上失败,一旦失败,它将失败所有后续的调用。 有没有办法使许多快照从简单的vdi – 更快? $ VBoxManage –version 3.2.14r75509
我正在寻找涵盖AWS托pipe环境中的MongoDB灾难恢复的最佳实践build议。 在这一点上,我们的设置是相当标准的,3台服务器的副本集(1个主服务器,1个仲裁服务器和1个仲裁器),主服务器和辅助服务器上的mongo卷均支持EBS。 全部在一个地区,分布在多个可用区域。 最终我们需要跨越地区,但这是另一天的讨论。 我在Mongo文档中看到的备份build议讨论了EBS快照(这很容易自动化)。 但是,如果发生灾难,他们不会让我们回到失败的时候。 我是否需要loggingoplogs并使用它们在失败后恢复? 我是否应该在专门用于备份和快照的副本集中创build另一个实例,以获取主要和次要的快照? 如果是这样,我们又回到oplog的问题是不是? 我应该快照每个副本卷,并依靠副本集完全覆盖故障和上次快照之间的时间? 我正在寻找最可靠的战略。 第二次数据保护和系统故障后的恢复速度比价格优先。 稍后我们可以优化价格。 预先感谢所有的build议…
我正在尝试按照此过程使用KVM进行实时快照。 因为我处于一个我不明白的状态,所以我一定会搞砸的。 我的VM被称为prod 。 它是在/srv/vm/prod.qcow2文件中/srv/vm/prod.qcow2 。 显然,没有正在运行的快照:我正在处理基本文件。 我可以猜测,因为/ /srv/vm/prod.qcow2文件的修改date每隔一分钟左右改变一次。 另外,这个命令也证实了这一点: # virsh domblklist prod Target Source ———————————————— vda /srv/vm/prod.qcow2 而且没有什么可阻止提交的: # virsh blockcommit prod vda –active –pivot error: invalid argument: top '/srv/vm/prod.qcow2' in chain for 'vda' has no backing file 然而,libvirt保留了一个旧的快照的痕迹: # virsh snapshot-list prod Name Creation Time State ———————————————————— snap 2015-06-09 12:11:33 +0200 disk-snapshot […]
这里是我的场景:我有两台服务器(还有很多,但是这个场景有两台),一台是Solaris备份服务器,另一台是CentOS Linux服务器。 每天晚上,CentOS服务器都会运行一个cron作业,以将自己同步到Solaris备份服务器。 完成之后,会将date和时间放入Solaris服务器上的特殊文件中。 Solaris服务器每分钟运行一次cron作业,如果它看到这个文件,就会抓取内容并使用它来创build快照。 结果非常好:每天都会自动运行备份,然后创build一个ZFS快照。 一直工作了两个多月。 我曾预料到现在我的空间不足,需要开始(手动)删除旧的快照。 但事实上,我在空间上很好。 我唯一担心的是,每天添加超过60张快照和更多快照,是否存在大量ZFS快照的已知问题? ZFS文件系统可以有最大数量的ZFS快照吗? 还是我可以继续积累快照,直到我空间不足?
是否有可能让ZFS创build一个文件系统的快照,例如,只有在文件被更改时才使用pool / filesystem /。 而不是使用cron或其他东西来每5分钟自动创build一个快照,是否有可能让ZFS在文件更改后自动创build快照? 这是可能的,将涉及什么? 你会怎么做? 提前致谢。