我的testing系统设置是一个简单的raidz 5磁盘(每个8 TB)zpool与256 GB的RAM。 性能开始良好,达到约650 MB /秒的吞吐量。 最终,Linux缓冲区caching填满并开始导致ZFS ARCcaching收缩,直到达到32 MB的大小。 一旦发生这种情况,吞吐量将下降到60 MB /秒左右。 我已经尝试了一些内核调优选项,如将vm.vfs_cache_pressure设置为200,但并未改变发生的问题。 我目前的解决方法是将/ sys / module / zfs / parameters / zfs_arc_min设置为128 GB,将zfs_arc_max设置为252 GB。 由于Linux缓冲区caching,ARC永远不会超过128 GB,但整个数据传输的性能保持在650 MB /秒的吞吐量水平。 理想情况下,我希望能够一起禁用Linux缓冲区caching,让ZFS ARCcaching在0到256 GB的内存之间,剩下的内存可用于应用程序工作负载。 如果有可能为ZFS ARCcaching提供比Linux缓冲区caching更高的优先级,这也是一个可以接受的答案,因为它将有效地禁用Linux缓冲区caching。 谢谢,扎克 编辑1:我想解决的问题是从内存驱逐ZFS ARC的Linux缓冲区caching。 我希望应用程序工作负载能够使用所有内存,并且ZFS ARC会相应地缩小。 作为解决方法,如果最小大小设置为0,则必须将ZFS ARC最小大小设置为较大的值,因为Linux缓冲区高速caching将从内存中逐出ARC。
我们计划在我们的Debian系统上部署一个〜100TB的存储空间。 该存储由一个带有24个6TB磁盘的外部存储设备( EonStore D1000: ESDS1024 )组成,通过一个10GBit光纤通过iSCSI连接到一台主机。 由于存储已经相当庞大,我们可能希望将来扩展它,所以我们希望使用ZFS作为文件系统。 现在, EonStore D1000已经预先configuration为RAID6系统,并且还支持硬件encryption(SED)。 它也可以configuration为JBOD。 我读过ZFS不应该在硬件RAID上使用,而是倾向于直接访问硬盘。 但是,我不确定这是否也适用于iSCSI设备(例如,iSCSI是否向ZFS报告了足够的信息以使其纠错与内置RAID6相关?) 另外,我们也试图使用SED,我猜这个SED根本不会和ZFS的错误纠正一起玩。 所以我的问题是:我应该(还是)在RAIDZ中不惜一切代价避免RAID6? encryption怎么样?
是否可以configurationZFS以避免虚拟磁盘使用? 在下一个场景中: 创build大文件(例如100GB)或大量的小文件(比文件总大小更多的可用RAM) 删除这个文件 这将是几乎没有磁盘IO。 磁盘IO应该在没有空闲的RAM的时候发生,或者在高速caching刷新之前(在重新启动/closures之前)或者高速caching中的数据足够老的时候(小时) – 如果高速caching会被刷新,但是不会太频繁一小时之内就可以)。 性能比数据完整性更重要。 我可以使用ramdisk,但是如果可以像这样configurationzfs就会方便多了。
我有一个带有750GB启动驱动器(UFS启动,ZFS根目录)的FreeBSD系统和由三个驱动器raidz安装程序生成的第二个数据。 我想将3个250GB的硬盘换成3个2TB的硬盘。 假设我有足够的空间在根驱动器上创buildraidz设置的所有date的副本,那么将交换驱动器的最简单方法是什么? 我应该只复制出所有数据,销毁池,closures系统并安装驱动器,然后启动并重新创build池,然后重新创build文件系统。 然后将数据恢复到原来的位置? 有什么我可以做的,这将是更less的工作? 这是在一台运行FreeBSD 7.2的1U机架上安装的(源自20090920)。
这是我的构build: LSI 9260-8i:MAX读取吞吐量为2,875 MB / s,写入性能为1,800 MB / s 24x SAS 10K RPM驱动器 用于ZIL和L2ARC的2个100GB戴尔SSDR(SATA)驱动器 所有插入到相同的控制器。 以ZFS作为文件系统,LSI9260-8i能否承受峰值负载? 我需要SSD的专用RAID控制器吗? 可以使用任何SATA RAID如SAS6i?
我有一台Nexenta / ZFS NAS,用作小型VMware vSphere场的NFS后备存储。 目前我有9x1TB磁盘全部镜像(最后一个磁盘configuration为写入日志设备)。 磁盘性能对于我对NFS的需求非常好。 不过,我注意到的一件事是,如果我直接在NAS上执行任何IO操作,则VM性能会变慢。 一个例子是在同一个zpool中的两个不同的ZFS文件系统之间复制1TB的数据。 有没有什么好的方法可以确保NFS守护进程执行的IO请求优先于磁盘上的其他IO操作? 在一个理想的世界里,我会把我的虚拟机备份到一个完全独立的zpool上,这样它们就不会受到ZFS文件系统负载的影响。 不过,我想知道是否有一个单一的zpool做一个好方法。 Linux有ionice,所以如果我使用的话,如果我要以很低的IO优先级移动大量的数据,我可以用ionice作为前缀。 但是,我不认为它在Solaris内核上可用。 有什么build议么?
讨论是否应该为我的Solaris 11 Express SAN服务器使用16 GB USB驱动器。 我打算使用重复数据删除,我相信可能是数据库的IO密集型。 虽然我不能确定。 SAN服务器预计将在多年内全天候运行。 我应该尽可能使用多个USB驱动器并镜像操作系统? 读/写速度是一个问题吗? 一些驱动器是10MB / s写入5MB / s读取。 有些是25MB / s的R / W。 我打算在以后为ZIL和L2ARC添加一些SSD。 以前有人build议我简单地将操作系统安装到服务器的存储驱动器上。 4x 300GB 15k SAS 6x 2TB 5400rpm SATA。 但是我不知道如何调整这些磁盘上的分区大小,如果让它们上的操作系统增加了一些复杂性,比如我决定通过提取磁盘和添加容量更大的磁盘来增加磁盘池的容量。
我想重置目录树上的ACL,以便根目录ACL将replace其下的所有文件和文件夹的ACL。 我怎样才能做到这一点? 编辑:这个问题措辞不好吗? 即使你不知道答案,有人可以给我一些反馈吗?
我刚在Dell R510上安装了NexentaStor开源软件。 我用4个2TB磁盘创build了一个Raid-Z1。 没有configuration备用磁盘。 NexentaStor现在告诉我,Datasat有7,35TB的可用空间,由于n-1规则,我预计大约有5.5TB。 谁能告诉我为什么?
我在FreeNAS 8.0.4中使用ZFS,并使用iSCSI为Vmware ESXi 5.0提供LUN。 我发布在http://forums.freenas.org/showthread.php?10990-Memory-utilization-and-performance-problem/page4 ,但我相信这里的人可能在ZFS上有更多的专业知识。 FreeNAS没有iSCSI取消映射。 我已经在ZFS iSCSI之间创build/移动/删除虚拟机。 一段时间后,zpool list报告使用了95%的容量。 但是,Vmware显示VMFS只能使用50%的容量。 AFAIK在创build虚拟机时,zvol分配了磁盘空间。 但是,当我们移动/删除虚拟机时,zvol没有更新/不知道更新空闲容量。 [root@data1] ~# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT data1 2.25T 2.07T 185G 95% ONLINE /mnt 现在,我相信由于在zpool list中报告错误的空闲容量,性能受到很大影响。 我应该怎么做,让ZFS知道真正的自由能力。 万分感谢。 zpool状态-v pool: data1 state: ONLINE scrub: scrub stopped after 10h31m with 0 errors on Wed Feb 6 13:32:53 2013 […]