这个问题的一个简单的版本已经被问到(并且存在用于简单场景的VMware站点的链接) – 但是这有点复杂。 我在VMware esxi 5.5下有4个快照场景: 我想知道点击“全部删除”快照会发生什么情况。 它是否正确? 场景1:A和B将被合并,并且不会有更多的快照 情景2:B将被丢弃,并且不会有更多的快照 场景3:A和B将被合并,C将被丢弃,并且将不再有快照 情景4:A和B和C将被合并,D和E将被丢弃,并且将不会有更多的快照。 根据VMware的说法,删除任何快照只有在当前链中才会将其合并到父代。 但是我认为他们的文章措辞不佳,与其他VMware的post相冲突,表明当前链中当前(你在这里)状态下的快照被简单地丢弃了
如果在OpenBSD上执行LVM风格的文件系统快照,最好的解决scheme是什么?
有没有办法closuresvmware服务器的自动快照function? (或者出于某种原因,这是一个坏主意?)我们将机器上的文件分开备份,所以我不认为需要快照,而且在运行时会严重降低主机系统的速度。
我最近在我们的服务器上发现了一个磁盘故障,并更换了磁盘。 由于这种磁盘故障,有些问题已经提出,现在正在上升和下降。 我的问题是,在我们的ESXi上,我们设置了ghettoVCB脚本来备份我们所有的虚拟机。 最近由于这个磁盘降级,我们很less有虚拟机显示错误,因为Configuration Issues – Virtual Machine disks consolidation is needed 。 当我查看这些虚拟机的快照pipe理器时,我没有find任何快照。 所以,我认为这是因为我们使用的后台脚本,我想知道如何解决这个问题,而不会丢失任何数据或虚拟机。 如果有人能指导我如何解决这个问题..将是一个很大的帮助。 更新 虚拟机之一无法整合,因为它给出了以下错误。
我知道,现代文件系统快照只有很less的空间,直到他们开始因文件更改而发生分歧。 但是,我一直无法确定在哪个粒度btrfspipe理的变化。 换句话说,文件中的小改动是否会导致改变的快照中文件的整个重新分配,或者只有一部分文件将被重新分配? 原因是要知道如何处理超大文件的快照。
我一直负责为我的小型办公室(约12人)build立备份系统。 我们的大部分产品都在AWS云上,所以我需要备份的是一些小型办公室/开发文件(现在低于100G),以及我们运行的虚拟机和开发,这些文件在1T以下。 我只需要一些可靠,方便,直接的东西。 我对Linux,FreeBSD以及某些程度上的Solaris 10都很熟悉,所以我倾向于使用完整的服务器,而不是使用OpenFiler或FreeNAS的设备系统。 我正在考虑的是一个用于虚拟机的一般存储和夜间备份的小型文件服务器,随后进行到Amazon S3存储服务的异地备份。 这将是通常的每晚增量备份和每周完整备份。 我的问题是如果使用ZFS快照,本地和通过'zfs send [-i]'转储到S3,是一个可行的备份工具? 还是应该坚持使用Duplicity或者其他一些方法? 内部文件服务器/备份机器上的ZFS快照听起来像是提供快速和方便的数据恢复的完美方式,所以我很可能会采取这种方式进行本地冗余。 (如果你们看到依赖ZFS快照的情况会比更传统的归档备份更糟糕,请随时说服我)。但是快照是否足够灵活以便从备份服务器丢失中恢复? 或者我更喜欢更传统的东西? (随意推荐您喜欢的免费或商业备份解决scheme。)
我有一个与林德VPS和他们有运行系统的热备份。 当我做了一些愚蠢的事情或者搞砸了一些安装等,我有多次恢复的形象 他们如何做热备份,我怎么能在我的本地Linux机器或Mac? 我知道rsync或dd,但它需要这么多时间,我不知道dd图像的完整性? 他们使用一些奇怪的突袭吗? 你们如何备份你的MySQL或业务生产系统?
我有几个盒子运行Debian 8,dovecot和btrfs。 我正在使用btrfs快照进行短期备份。 为此,我保留了邮件子卷的14个快照。 在删除快照之前,性能还是可以的:只要btrfs-cleaner启动,所有事情都快要停止了。 这会由于超时而失去与辅助节点的连接。 这发生在几个盒子,所以这不太可能是一个硬件相关的问题。 Spike是快照删除的地方: 我不敢相信这是正常的行为。 所以我的问题是:有没有人有这个问题的经验,有关如何解决或debugging它的任何想法,或作为最后的手段如何通过做不同的事情来避免它? 系统是戴尔R710,Debian 8,内核3.16,安装选项:rw,noatime,nossd,space_cache 编辑:更多系统信息 双R710,24GB RAM,H700带写caching,8x1TB 7.2k SATA磁盘作为RAID6,DRBD协议B,DRBD专用1Gb / s链路 编辑:通过rm -rf删除快照内容。 对IO进行限制,否则就会像btrfs-cleaner那样跑掉: 我会得出这样的结论,万一是更糟糕的。 唯一的好处是我可以控制用户空间的IO负载。 另一个编辑:IOP大屠杀
在我对fs级别的文件版本,快照和相关的想法的研究中,我看了一下硬链接,看看它们是什么以及它们是如何performance的。 使用rsync,你可以得到一个非常漂亮的穷人的快照系统,并在本地不支持的文件系统上运行。 但是,你可以在ext3 / 4或其他文件系统上获得不可变的硬链接吗? 我对不变硬链接的定义是:一个硬链接,当在一个位置上改变时,变成一个普通的副本而不再是一个硬链接。 我想这样做是因为它可以使源数据的快照使用链接而不是数据副本(在使用rsync快照技术的情况下)。 我有几千兆字节的数据,由于空间限制而无法复制,但是如果我可以智能地快照单个更改的文件,而其余链接到源而不是副本,则我有足够的空间。 鉴于这一切,有没有其他的技术,function或技术,我真的在寻找?
在我的老公司,我们使用了支持“.snapshot”function的NetApp。 每当我对我的文件做了一些愚蠢的事情,我可以cd .snapshot ,find包含我当前目录快照的每小时和每晚的目录。 我得到我需要的文件并恢复工作。 开源世界中有没有类似的东西? 我发现很多备份项目,但是他们通常备份到不同的机器,用户不容易访问。 我发现了一些在rdiff-backup之上运行的用户空间文件系统,但是有没有一个项目把所有东西联系在一起成为一个有凝聚力的系统? 提前致谢。