从概念上讲,我并不认为我在这里一个人,我喜欢ZFS的概念。 您可以创build一个大磁盘,所有内容都存储在多个驱动器上,随时可以扩展和缩小池和驱动器。 另外,磁盘不需要是相同的 我最讨厌的是ZFS最能说明的,就是在Oracle(以前称为Sun)硬件上运行的Solaris上唯一真正稳定的forms。 当然,OpenSolaris的存在,FreeBSD也支持ZFS,但是在非Oracle硬件上使用FreeBSD / OpenSolairs / Solaris时,可靠性通常被认为是不好的。 我们运行(目前仅限于)Window Server 2008 R2服务器。 什么是该操作系统的“次佳”DAS存储选项? 我找不到Windows的ZFS实现,所以没有了。 有一个myrad的RAID卡在那里:有人可以推荐一个设置,接近ZFS的灵活性? 一个设置,你可以只添加一个磁盘到池中,而不需要重build服务器就可以存储更多的存储空间? 综上所述:如果你喜欢ZFS,但想运行Windows Server 2008 R2,那么你最好/最酷的select是什么? PS:这是在生产系统中,预算是每个系统10k的数量级。
我目前正在重组RAIDZ1卷内的文件结构。 将目录从一个数据集移动到另一个,它们都包含在同一个卷上。 用SSH进入机器,做了一个老式的: mv *目的地 这不应该是瞬间的吗? 我知道它分布在三个驱动器上,但同时,这些文件本身并不需要移动 – 我只是希望它能够调整这些文件的指针,而且基本上是瞬时的。 这绝对不是。 我有大约500G的数据移动,现在已经运行了大约半个小时。 OO 为什么不是瞬间? 规格:CPU:Intel G3220 MB:技嘉GA-B85-HD3 MEM:金士顿DDR3-1600 8GB 磁盘:RAIDZ1卷中的3x2TB WD Green
我刚刚买了一台HP DL380 G6的新服务器。 我用LSI 9211-8ireplace了现有的智能arraysp410控制器。 我的计划是使用ZFS作为XEN的底层存储,它将运行在相同的裸机上。 我被告知可以使用SATA磁盘和智能arrays控制器,但是因为消费驱动器不支持TLER,CCTL和ERC。 这是这种情况吗? 我想知道如果在JBOD中使用LSI控制器(RAID直通模式),那么我使用的磁盘types与使用智能arrays控制器的效果会有怎样的影响? 我知道尝试使用不支持写入caching的RAID系统来进行虚拟化对性能不利。 但是我正在为ZFS添加SSD。 这有什么区别? 我之所以非常执着于使用ZFS来进行重复数据删除和压缩。 我不认为智能arrays控制器可以做任何这些function。
我计划在不久的将来build立一个FreeNAS盒子,但是如果Linux上的ZFS最终certificate是可靠的,那么我可能要切换,只是为了有一个更熟悉的操作系统。 所以我想知道是否可以相信ZFS的不同实现是兼容的。 换句话说,如果我只是将FreeNAS的启动磁盘换成Linux或OpenIndiana,我相信没有什么不好的事情会发生在我的数据上? 这可能看起来像一个愚蠢的问题 – 显然它应该是兼容的 – 但我猜测ZFS不常用于驱动器在计算机之间移动的情况下,所以我希望有人可以提供比只是“ 应该是”。
在7.2k rpm sas磁盘上运行mirror + stripe的一个非常基本的系统,没有特别的加载。 没有重复数据删除,压缩所有数据集。 磨砂已经以死亡蜗牛的速度运行了15天。 有一些需要完成的优化,还是可能是由于一些错误的硬件? 带有MD1200机箱的戴尔R510。 2x至强E5620 48GB NexentaStor 3.1.3,社区版 一些信息: scan: scrub in progress since Mon Apr 1 19:00:05 2013 171G scanned out of 747G at 141K/s, 1187h40m to go 0 repaired, 22.84% done config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c7t5000C500414FB2CFd0 […]
我对ZFS完全陌生,所以首先我想我会做一些简单的基准testing来了解它的行为。 我想要突破它的性能限制,所以我configuration了一个Amazon EC2 i2.8xlarge实例(几乎是7美元/小时,时间真的就是金钱!)。 这个实例有8个800GB SSD。 我对SSD自己做了一个fiotesting,并得到了以下输出(修剪): $ sudo fio –name randwrite –ioengine=libaio –iodepth=2 –rw=randwrite –bs=4k –size=400G –numjobs=8 –runtime=300 –group_reporting –direct=1 –filename=/dev/xvdb [trimmed] write: io=67178MB, bw=229299KB/s, iops=57324, runt=300004msec [trimmed] 57K IOPS用于4K随机写入。 可敬。 然后我创build了一个跨越全部8个ZFS卷。起初我有一个raidz1 vdev与所有8固态硬盘在里面,但我读了性能不好的原因,所以我最终有四个mirror vdevs,如下所示: $ sudo zpool create testpool mirror xvdb xvdc mirror xvdd xvde mirror xvdf xvdg mirror xvdh xvdi $ sudo zpool […]
我需要更换FreeNAS zpool上的坏磁盘。 zpool status显示 gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open 如何find该磁盘的序列号? 更多: glabel status给出: Name Status Components ufs/FreeNASs3 N/A da0s3 ufs/FreeNASs4 N/A da0s4 ufsid/4fa405ab96518680 N/A da0s1a ufs/FreeNASs1a N/A da0s1a ufs/FreeNASs2a N/A da0s2a gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca N/A ada1p2 gptid/60570005-3ff2-11e2-9437-f46d049aaeca N/A ada3p2 gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca N/A ada4p2 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca N/A ada6p2 gptid/61925b86-3ff2-11e2-9437-f46d049aaeca N/A ada9p2 gptid/4599731b-8f15-11e1-a14c-f46d049aaeca N/A ada10p2 在那里我没有看到gptid/5fe33556 。 camcontrol devlist给出: […]
我有一个运行Solaris 10 8/07的服务器(T5220,尽pipe我怀疑这很重要),我在内部磁盘上有一个ZFS池“mysql”。 在它内部我有一个文件系统“mysql / data / 4.1.12”,我用cron脚本每小时一次快照。 我有一个快照,创build一个小时快照,不会破坏。 我把它重新命名为“mysql/data/4.1.12@wibble”,这样我的脚本就不会试图破坏它,但它本来是在序列中的,尽pipe我怀疑这个问题。 它成功重命名。 快照可以通过.zfs / snapshots目录成功导航和读取。 它没有基于它的克隆。 试图摧毁它这样做: (265) root@web-mysql4:/# zfs destroy mysql/data/4.1.12@wibble cannot destroy 'mysql/data/4.1.12@wibble': dataset already exists (266) root@web-mysql4:/# 这显然是荒谬的:当然它已经存在了,这就是重点! 任何人都看过这样的事情吗? 网页search没有任何明显的相似 如有必要,我可以提供补丁。
在计算传统RAIDarrays的IOPS时,可以使用以下公式(从Symantec Connect上获取IOPS v1.3挂起中借用): Ieffective = (n * Isingle) / (READ% + (F * WRITE%)) 哪里: 有效的是有效的IOPS数量 Isingle是单个驱动器的平均IOPS 。 n是arrays中的磁盘数量 READ%是从磁盘分析中读取的部分 WRITE%是从磁盘分析中读取的部分 F是RAID写入的惩罚 : RAID Level Write Penalty RAID-0 1 RAID-1 2 RAID-5 4 RAID-6 6 RAID-10 2 RAID-DP 2 公式基本上是一个函数: arrays中每个驱动器的IOPS 磁盘的数量。 更多的磁盘意味着更多的IOPS 每个写操作的RAID惩罚。 每次写入RAID5和RAID6需要4个以上的磁盘操作。 控制器必须读取块,然后读取奇偶校验数据(两个操作),计算新的奇偶校验数据,然后更新奇偶校验块并更新数据块(另外两个操作)。 RAID6有两个奇偶校验块,因此需要三次读取和三次写入。 因此,RAID5和RAID6arrays的IOPS较less,然后是RAID1。 RAID1和RAID10只需要2个写入,镜像中的每个磁盘一个写入。 而且要清楚的是,这一切都提供了理论性能的估计 。 各种各样的控制器和RAID方法都有一些技巧来加速其中的一些。 ZFS相当于RAID5和RAID6是RAIDZ和RAIDZ2。 在计算RAIDZarrays的IOPS时,我可以使用与RAID5和RAID6相同的公式,或者ZFS有特殊的技巧来减less写操作所需的操作次数。 计算RAIDZarrays的IOPS时有没有不同的公式?
zfs池如何连续/增量备份到异地? 我认识到通过ssh send/receive是一种方法,但涉及到必须手动pipe理快照。 有一些工具我发现但是大多数不再被支持。 看起来很有前途的一个工具是https://github.com/jimsalterjrs/sanoid但是我担心这个非广为人知的工具可能会造成更多的伤害,因为它可能会损坏/删除数据。 连续/增量zfs备份如何执行?