Articles of ZFS

带有L2ARC(SSD)的ZFS对于随机search比没有L2ARC要慢

我目前正在testingZFS(Opensolaris 2009.06)在一个较旧的文件服务器,以评估其使用我们的需要。 我们目前的设置如下: 双核(2,4 GHz),带有4 GB RAM 带有11个HDD(250 GB)的3个SATA控制器和一个SSD(OCZ Vertex 2 100 GB) 我们要评估一个L2ARC的使用,所以目前的ZPOOL是: $ zpool status pool: tank state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM afstank ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c11t0d0 ONLINE 0 0 0 c11t1d0 ONLINE 0 0 0 c11t2d0 ONLINE 0 0 0 […]

什么叫ZFS vdev不会改变?

我有一个支持ZFS的Ubuntu(13.04)桌面,这要归功于PPA zfs-native/stable 。 一切都很好。 我使用以下命令创build了一个名为inground的RAID-Z1池: zpool create inground raidz1 sdb sdc sdd sde sdf 后来,在无法访问我创build的挂载点之后,当我在池中看到1个unavailable和2个corrupt vdevs时,我运行了zpool status ,差点从椅子上掉下来。 经过几次深呼吸,我注意到当我最近重新启动系统时,我在我的塔的前端口之一有一个USD拇指驱动器。 这导致了所有的/dev/sd*映射的改变,一切都变得有意义了。 我删除了USB驱动器,重新启动,一切都很好。 我的问题是,今后如何防止这种情况? 在将它们作为vdevs添加到zpool时,是否可以使用不同的,规范的标识符来引用物理驱动器?

在ZFS中使用精简configuration时,如何确保不会耗尽物理磁盘空间?

原谅我,如果这似乎是一个基本的问题,但我真的不能在Google上find具体的东西,我不是一个交易的系统pipe理员。 我们正在使用具有8个磁盘的RAID Z3configuration(8 x 1.36 TB驱动器)的NexentaStor在我们的办公室build立一个SAN,并且正在configuration一切。 目前,就总磁盘空间而言,我们在SAN上有大约10.8 TB的“真实”存储,全部分配在一个zpool / zvol中。 我正在考虑对zvol进行精简configuration(为了争论起见)100TB的空间来解释未来的增长。 理论上这似乎很简单:当我们接近耗尽实际的磁盘空间时,我们只是添加一些新的驱动器,它将“正常工作”:无需担心文件系统resize或停机时间。 但是,我们如何知道何时需要增加更多容量,而不是每隔几小时login到SAN,并确保我们仍然有剩余空间? 例如,这通常是通过设置一个cron作业来处理的,或者NexentaStor(或者ZFS本身)在你接近容量的时候提供警告,或者是预计你应该“知道”你在给定的空间上剩下多less空间时间,必须自己跟踪它? 如果有帮助,10.8 TB zvol将用作我们的虚拟服务器和testing虚拟机(也是精简configuration)的后备存储(通过iSCSI),所以我看到的部分问题是可以很容易地运行如果我们不断地创build/快照/恢复虚拟机(当testing不同的机器configuration和软件环境时,我们做了很多工作),磁盘空间不足。

ZFS取代硬件/软件RAID的需求吗?

我想提供保护,防止我的服务器上的数据丢失。 通常情况下,我会使用硬件RAID 1或5,但我一直在阅读ZFS 。 ZFS本身提供RAID 1或5的数据保护而不需要RAID控制卡是否正确? 如果是这样,我假设一个硬盘是不足以提供数据保护,因为如果该驱动器失败,所有的数据都会失败,所以我需要运行多less个硬盘驱动器来提供这种保护?

MegaRAID JBOD替代品

似乎某些MegaRAID芯片不支持JBOD(不幸的是)。 我已经在网上阅读,为了使这些控制器作为传递,我应该在RAID0configuration磁盘。 你推荐什么样的RAID0设置?

我在哪里可以find有关ZFS的介绍性文档?

由于对ZFS的兴趣,我最近安装了OpenIndiana。 我喜欢ZFS的function列表,但我很难包装如何configuration它。 到目前为止,我所遇到的所有文档似乎都预先了解了诸如池和文件系统这样的概念。 我在哪里可以find介绍级别的信息,用ZFS来定义这些概念?

ZFS卷作为ISCSI目标

我正在研究ZFS并使用FreeNAS进行ZFSpipe理,并且有以下问题: 在ZFS卷上创buildiSCSI目标时,ZFS作为重复数据删除,自动错误修复等的优势仍然有效吗? 在FreeNAS中,这可能是一个原始的图像文件,用作ZFS卷上的目标。 由于它是基于块(而不是基于文件):ZFS的优势仍然适用? 编辑:预期的使用将是VMware(ESXi)的存储。

硬件镜像之上的ZFS,还是只在ZFS镜像?

我有一个IBM x346双3.2Ghz Xeon和2x36GB 15k SCSI磁盘。 我运行的是完全基于ZFS的FreeBSD 8.1安装。 我可以将BIOSconfiguration为镜像两个磁盘,然后将ZFS放在该“单个”驱动器上,或者我可以使用ZFS镜像驱动器,然后安装到该驱动器。 如果我走全ZFS路线,我想我有更多的自由,我如何使用设备(例如,除了我的镜像系统安装,我可以设置一个快速的非冗余条纹区域)。 只要纠错进行,我能获得什么? 重build性能/缓解/时间? 我知道这两个configuration可能是相同的,在一个g's的睫毛,但我想第二个意见。

ZFS在Ubuntu服务器?

我的filer目前有两个基本的mdtypes的软件raid 5套。 一个8 x 500 GB和一个4 x 1 TB。 为了使configuration更加灵活,我正在考虑添加LVM。 在我做之前,我想我也应该看看ZFS。 在ZFS上可以使用ZFS吗?可以replacemd-raid和lvm吗?

“zpoolreplace”挂起并locking池

鉴于我的四个磁盘RAIDZ1,一个磁盘变得嘈杂,没有产生错误,但听起来不健康。 所以我select先发制人地replace它。 我已经做好了: zpool offline tank0 ad6 关机,卸下并更换磁盘 zpool replace tank0 ad6 ad6 永远挂起。 zpool status也会永久挂起, zpool history 。 如果我删除了磁盘重新启动计算机,一切正常,如预期的降级模式。 现在我该怎么做? 担心,因为我的数据现在容易受到单个磁盘故障的影响。 OS是FreeBSD 7.3-RELEASE-p1 – 又名FreeNAS 7.0.2.5226 尽pipeFreeBSD 7.3-RELEASE-p7(FreeNAS 0.7.2.8191,稍后的版本),我只是尝试了相同的操作在一个虚拟机,完美的作品。 试用FreeNAS的最早版本,我现在可以find(7.0.2.5799),稍后会更新。 另外, zpool replace不需要文件系统的使用? NAS上的另一个守护进程有可能使用文件系统。 我认为这样可以,但这当然可能是错误的。 更新,2012-01-10 我使用FreeNAS 8启动了机器,并执行了zpool replace – 启动后,立即开始抛出一堆数据损坏错误和内核恐慌 – 尽pipe每周清理一次池,永远不会发现任何问题。 我不认为我做了一些愚蠢的事情,比如告诉它来replace错误的磁盘。 我立即发出shutdown -h因为我知道数据很好。 无论如何,我现在有一个退化池,停在replace被暂停的状态,我正在复制我的数据到一个3TB的外部驱动器,花费巨资购买,所以我可以摧毁这个池并重新开始。 谢天谢地,数据看起来没问题 – 我碰巧有大约100GB的文件,到目前为止似乎是完好无损的,我已经设法恢复了一切,这是真正无法替代的。 我现在正在等待更多的内存,因为FreeNAS 8保持kmem_max太小的错误,我似乎无法调整周围,机器RAM内存约束(4 GB RAIDZ1 […]