我正在寻找关于备份我目前的6个vm的build议(并且很快会增长到20个)。 目前我正在运行一个两节点的proxmox集群(这是一个debian库,使用kvm进行虚拟化,并使用自定义Web前端进行pipe理)。 我有两个几乎相同的盒子,amd phenom II x4和华硕主板。 每台机器有4 500 GB sata2硬盘,1个用于proxmox安装的os和其他数据,3个使用mdadm + drbd + lvm在两台机器之间共享1.5 TB的存储空间。 我将lvm映像挂载到所有虚拟机的kvm。 我目前有能力从一台机器到另一台机器进行实时传输,通常在几秒钟之内(在m $ sql服务器上运行win2008的最大虚拟机大约需要2分钟)。 我正在使用proxmox的内置vzdump实用程序来拍摄虚拟机的快照,并将这些快照存储在networking上的外部硬盘上。 然后我有jungledisk服务(使用rackspace)同步vzdump文件夹进行远程异地备份。 这一切都很好,但它不是很有伸缩性。 首先,备份本身可能每晚需要几个小时。 随着jungledisk的块级增量传输,同步只传输一小部分数据异地,但仍需要至less半小时。 当然,更好的解决scheme是让我能够立即获得两个时间点的差异(比如从上午6点到上午7点写的),然后将其压缩,然后将该差异文件发送到备份服务器,该备份服务器将立即转移到远程存储在机架上。 我已经看了一些zfs,它是发送/接收的能力。 这与bzip中的数据pipe道或什么东西似乎是完美的。 但是,使用zfs实施nexenta服务器似乎需要至less一个或两个以上的专用存储服务器向proxmox服务器提供iSCSI块卷(通过zvol's ???)。 如果可能的话,我宁愿保持设置尽可能小(即没有单独的存储服务器)。 我也简要阅读了关于zumastor。 看起来它也可以做我想做的事,但似乎在2008年停止了发展。 那么,zfs,zumastor还是其他?
是否有可能创build一个ZFS集群? 或者你是否需要去GFSTERFSpipe理的UFS格式化池的看似丑陋的(至less对我来说)ZFS路线? 这个想法是看看是否有可能扩展到ZFS应该能够处理而没有打嗝的多Petabyte分布式存储。 任何指针,博客,文章?
ZFS的大多数讨论表明,硬件RAID被closures,ZFS应直接与磁盘对话并pipe理主机(而不是RAID控制器)上的RAID。 这对于具有2-16甚至更多本地磁盘的计算机是有意义的,但是在具有大型SAN的环境中呢? 例如,我工作的企业有一个中等大小的SAN,有2个完整的磁盘架,就像400锭。 我看到SAN的架子比我们的密度要高,SAN的部署方式比我们的要大。 人们是否将100个磁盘直接暴露给大型ZFS服务器? 300个磁盘? 3000个磁盘? SANpipe理工具是否有助于这种事情的自动化pipe理?
我已经阅读了大量有关ZFS重复数据删除规划RAM要求的信息。 我刚刚升级了我的文件服务器的内存,以支持一些非常有限的ZFS zvols重复数据删除,我不能使用快照和克隆(因为他们是zvols格式化为不同的文件系统),但将包含很多重复的数据。 我想确保我添加的新RAM将支持我打算进行的有限重复数据删除。 在规划中,我的数字看起来不错,但我想确定一下。 我怎样才能知道我现场系统上的ZFS重复数据删除表(DDT)的当前大小? 我阅读这个邮件列表线程,但我不清楚他们如何获得这些数字。 (如果需要,我可以发布zdb tank的输出,但我正在寻找一个可以帮助其他人的通用答案)
我知道ZFS的性能很大程度上取决于可用空间的数量: 将池空间保持在80%以下,以保持池性能。 目前,如果池很满并且文件系统经常更新(例如,在繁忙的邮件服务器上),池性能可能会降低。 完整的池可能会导致性能损失,但没有其他问题。 […]请记住,即使大部分静态内容在95-96%的范围内,写入,读取和重新同步性能可能会受到影响。 ZFS_Best_Practices_Guide,solarisinternals.com 现在,假设我有一个承载ZFS文件系统volume的10T的raidz2池。 现在我创build一个子文件系统volume/test并给它一个5T的保留。 然后,我将每个NFS的两个文件系统安装到某个主机上,并执行一些工作。 我知道我不能写超过5T的volume ,因为剩下的5T被保留给volume/test 。 我的第一个问题是,如果我用〜5T填充我的volume装入点,性能如何下降? 它会下降,因为该文件系统中没有可用空间用于ZFS的“写时复制”和其他元文件? 还是会保持不变,因为ZFS可以在预留volume/test空间内使用空闲空间? 现在是第二个问题 。 如果我按照以下方式更改设置,是否有所作为? volume现在有两个文件系统, volume/test1和volume/test2 。 两者都给予3T的预订(但没有配额)。 现在假设,我写7T到test1 。 两个文件系统的性能是相同的,还是每个文件系统都不一样? 会下降还是保持不变? 谢谢!
主要参考 ZFS L2ARC(Brendan Gregg) (2008-07-22)以及ZFS和混合存储概念(Anatol Studler的博客) (2008-11-11)包括以下图表: 题 我应该解释垂直的白线 – 在SSD层 – 作为使用单独 SSD的首选项 – 不要在单个磁盘上混用L2ARC和ZIL? 背景(对评论的回应) 就我个人而言,我不太可能在任何可用的计算机上使用L2ARC或ZIL。 (我的日常电脑是一个MacBookPro5,2,8GB内存和混合希捷ST750LX003-1AC154。没有计划用SSDreplace光驱。) 其他地方:在工作中会有一些套件的重新调整,但我没有date或完整的细节。 (Xserve RAID x2 …在这个时候我不会想象给那些ZFS,但我保持开放的态度。) 我对 L2ARC和ZIL SSD最佳实践的好奇心始于ZEVO领域的性能相关讨论,特别是下面提到的主题,即用户在单个磁盘上同时具有L2ARC和ZIL。 其他参考和讨论 L2ARC屏幕截图(Brendan Gregg) (2009-01-30) SLOG截图(Brendan Gregg) (2009-06-26) [zfs-discuss] ZFS根备份/“灾难”恢复和移动根池 (2011-01-10)build议在单个磁盘上禁止三种东西(root pool,ZIL和L2ARC) …不值得在试图pipe理同一磁盘上的所有3时可能发生的问题。 例如,如果您决定重新安装并意外地打开数据池的ZIL的内容。 不要为池组件或池共享磁盘以简化pipe理和恢复。 … – 我更感兴趣的是build议不要在单个磁盘上混合两个这样的东西。 https://superuser.com/a/238744/84988(2011-01-28 )提到“caching(L2ARCcaching)和写入日志(ZIL)到SSD”( 单数 )。 但是,因为它涉及到FUSE和Windows,所以我不认为这个答案与ZFS的更常见和更高性能的用途特别相关。 @ChrisS在2011-08-16 在Comms Room中提到了ZIL和L2ARC 。 http://forums.macrumors.com/showpost.php?p=14248388(2012-01-31 )讨论了多个 […]
我的zpool今天报告了几个permanent errors 。 pool: seagate3tb state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://zfsonlinux.org/msg/ZFS-8000-8A scan: none requested config: NAME STATE READ WRITE CKSUM seagate3tb ONLINE 0 0 28 […]
我正在尝试使用ext4文件系统来testing需要压缩存储的项目,因为我使用的应用程序依赖于ext4function。 有什么生产/稳定的解决scheme在那里透明压缩ext4? 我曾经尝试过: 启用压缩的ZFS卷上的Ext4 。 这实际上有一个不利的影响。 我试图创build一个启用了lz4压缩的ZFS卷,并在/ dev / zvol /上创build了一个ext4文件系统,但是zfs卷显示了实际使用的两倍,压缩似乎没有任何影响。 # du -hs /mnt/test **1.1T** /mnt/test # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 15.2T 2.70G 290K /pool pool/test 15.2T 13.1T **2.14T** – ZFS创build命令 zpool create pool raidz2 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde2 /dev/sdf1 /dev/sdg1 /dev/sdh2 /dev/sdi1 zfs set recordsize=128k pool zfs create -p […]
我的团队目前有两个较大的存储服务器,都运行debian linux的NAS。 第一个是一个几十年前的一个全function的24盘(SATA)服务器。 我们有两个设置LVM的硬件RAIDS。 第二个服务器是64个磁盘,分为4个机箱,每个机箱都有一个硬件RAID 6,通过外部SAS连接。 我们使用LVM的XFS来创build100TB的可用存储。 所有这些工作都很好,但是我们超出了这些系统。 在构build了两个这样的服务器并仍在不断增长的情况下,我们希望构build一些能够使我们在未来增长方面更具灵活性的备份选项,在磁盘故障下更好地运行(检查更大的文件系统可能需要一天或更长时间)在一个严重的并发环境中(思考小型计算机集群)。 我们没有系统pipe理支持,所以我们自己pipe理所有这些(我们是一个基因组实验室)。 因此,我们所寻求的是相对低成本,可接受的性能存储解决scheme,它将允许未来的增长和灵活的configuration(认为ZFS具有不同的操作特性)。 我们可能超出了单个NAS的境界。 我们一直在考虑将ZFS(例如openindiana)或者每个服务器的btrfs与运行在其上的glusterfs结合起来,如果我们自己做的话。 我们所反对的仅仅是咬紧牙关,投资于Isilon或3Par存储解决scheme。 任何build议或经验,表示赞赏。
我有一台带有zpool backupz的OpenSolaris服务器,由四个SCSI驱动器组成: -bash-3.2# zpool status backupz pool: backupz state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM backupz ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c7t0d0 ONLINE 0 0 0 c7t1d0 ONLINE 0 0 0 c7t2d0 ONLINE 0 0 0 c7t3d0 ONLINE 0 0 0 errors: No known data errors 我想添加第五个驱动器…但zpool […]