Articles of ZFS

如何在FreeBSD中用SNMP监视ZFS?

我想用SNMP监视这些: zpool iostat -v 1 每个驱动器和总和。 zpool status 洗涤为1而不是洗涤为0。 zpool status -x 监控$? (返回值)。 当值不是0时发送陷阱。 zfs list 已用和可用空间。 什么样的脚本是需要的?

ZFS:销毁和重新创build镜像zpool而不会丢失任何数据。 可能?

我有一个现有的Solaris ZFS NAS / SAN设备,出于几个原因,我期望有效地销毁和重新创buildzpool。 问题是,我没有其他地方可以把数据放到任何地方,所以在我这样做的时候,它实际上必须留在盒子里。 有12个1TB的7.2k SATA驱动器组成了6个镜像对的zpool。 我的计划如下: 在镜像对中,完全从池中移除其中一个驱动器。 创build一个仅包含此驱动器的新zpool 对每个其他镜像对重复(1),将它们添加到新的zpool中。 在这一点上,我留下了两个相同大小的zpools,没有冗余,但每个包含6个驱动器。 将数据复制到新的池中,并validation(我猜是用磨砂膏)? 一旦数据被复制,破坏旧的池,并将6个驱动器添加到新的池作为现有6个驱动器的镜像。 确保所有的文件系统是正确的,并具有正确的属性 这有什么理由不起作用吗? 如果不是,有没有更好的方法可以做到这一点?

安装一个适中的ZFS系统,用于引导磁盘的ZFS

我在一家维修店工作,我正在考虑构build一个Solaris Express,或者可能使用现在所谓的开放版本,基于ZFS的NAS,远离我们已经存在的旧硬件。 我有很多疑问,阅读最佳实践并没有解决其中的大部分问题,所以我会一个一个的在这里问,避免写一个大问题的大单。 服务器将有四个磁盘。 我想我必须专门为系统使用一个。 是对的吗? 如果这个磁盘死了,它会把所有的其他磁盘的数据? 或者,也许我可以用Live CD读取其他三个磁盘的池?

如何在Linux上使用ZFS保险丝时重命名设备

我刚刚开始在Linux上使用ZFS,并已遇到问题。 我将旧数据驱动器连接到我的服务器,将我的数据复制到新的ZFS卷。 但是,当我删除这个驱动器,并重新启动Linux,我发现我的设备已经重新编号,ZFS不能再挂载其池。 zpool状态 pool: media state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-3C scrub: none requested config: NAME STATE READ WRITE CKSUM media UNAVAIL 0 0 0 insufficient […]

监视ZFS-FUSE

我正在用一堆基于KVM的虚拟机build立一个基于Debian的主机。 这些虚拟机的图像驻留在ZFS卷(我使用ZFS-FUSE 0.6.9)。 性能结果似乎与我基于CentOS 6的另一个系统大不相同。我担心的是,ZFS-FUSE的Debian实现会忽略来自/etc/zfs/zfsrc 。 我如何监视ZFS-FUSE的实际状态,比如ARCcaching使用情况,vdevcaching使用情况等?

FreeBSD与Linux有多less不同?

我正在尝试使用Linux为我的ESXi服务器设置一个NAS盒,我将安装ZFS和iSCSI,并且我认为一切都会变得很棒。 我错了… Linux上的ZFS并不是最令人吃惊的事情,它需要工作。 所以我很好奇,FreeBSD支持ZFS正确吗? FreeBSD支持什么版本的ZFS,也是更重要的问题。 FreeBSD和Linux有多大的不同,我假设Linux和FreeBSD都将使用BASH作为默认的shell。 难道要把它设置成一个用ZFS存储的NAS机器吗? 后端可能是iSCSI的VMware连接。

是否有任何与OpenIndianna(OpenSolaris)和/或FreeNAS(freebsd)8+兼容的PCIe SSD卡?

FreeNAS 8或OpenIndiana下200GB +以上的任何PCIx SSD卡有没有成功? 特别是这些平台,因为我们将使用它作为L2ARCcaching的ZFS支持。 我可以确认FreeNAS的OCZ RevoDrive 3似乎是不行,但也可能有其他的卡可以工作。 我应该指出,我对品牌build议不感兴趣。 我只是想知道在这两个平台中的哪一个或两个都支持哪些芯片组。 理想情况下,如果你已经尝试过。 原因是我需要一个caching,而我没有任何备用的地方来安装SSD驱动器。 不过,我可以插入一张卡,我认为额外的性能将是理想的L2ARC。 谷歌search我没有发现任何积极的,主要的制造商没有具体提供这种支持。 另一个select,我还没有find一个产品(或我没有find正确的东西)…是否有可能使我可以使用PCIe卡可以安全地安装SSD驱动器的自由空间或两个呢? 这是一个1U服务器,所有4个前插槽已经装满了驱动器。

从Windows客户端通过ZFS SMB将访问权限写入OpenIndiana主机上创build的文件

我有一台运行ZFS的OpenIndiana服务器,使用nobody用户和组进行共享。 我不完全了解Solaris ACL权限,但是我知道Linux风格的权限。 客户端是Windows 8,服务器是OpenIndiana是oi_148。 我无法解决如何使写入权限正确地为Windows客户端工作。 它能够创build新文件,但不能修改由OpenIndiana中的shell创build的文件。 当一个文件( "local file" )在本地创build为bash中的nobody用户,另一个文件( "smb file" )通过SMB远程创build时(也nobody ),它们在权限上完全不同: # ls -V -rw-r–r– 1 nobody nobody 0 Dec 2 12:24 local file owner@:rw-p–aARWcCos:——-:allow group@:r—–aRc–s:——-:allow everyone@:r—–aRc–s:——-:allow -rwx——+ 1 nobody nobody 0 Dec 2 12:24 smb file user:nobody:rwxpdDaARWcCos:——-:allow group:2147483648:rwxpdDaARWcCos:——-:allow 在bash中,我可以写入smb file ,反之亦然,Windows客户端无法写入local file 。 这让我感到困惑,因为它似乎应该允许SMB客户端写入local file ,因为nobody是拥有者,并且在ACL中有一个w 。 sharesmb设置是相当无聊,虽然我希望有一些东西可以在这里设置类似于一个umask: sharesmb name=shared,guestok=true […]

KVM虚拟服务器上的ZFS。 我应该在主机还是客户上运行ZFS?

我打算在Linux上运行ZFS(最新的Ubuntu stable ppa)。 该硬件是一款至强E3-1270,具有24 GB的RAM,主板上的6个SAS端口以及一个带8个SAS端口的超微型HBA。 我打算在RAIDZ1上使用5400rpm SATA驱动器上的4 x 3TB和RAIDZ1上的7200rpm SATA驱动器上的4 x 2TB。 这将在虚拟机中运行2个文件服务器。 文件服务器具有不同的性能需求,因此将使用5400rpm驱动器中的存储器,另一个将使用7200rpm驱动器。 操作系统将在单独的SSD上运行。 问题是:我应该如何configuration(性能,可靠性等)? 一个。 我应该在VM主机上运行ZFS,并将逻辑驱动器导出到VM guest虚拟机? 还是应该将原始磁盘导出到VM guest虚拟机并在guest虚拟机上运行ZFS? 湾 对于性能要求较高的文件服务器,是否应该将4 x 7200rpm驱动器连接到HBA,并将整个HBA连接到VM ​​guest虚拟机?

如何删除OpenSolaris ZFS转储设备

ZFS转储设备仅用于debugging问题 。 在这种情况下,我决定风险与回报是这样的,我应该删除转储设备,为其他存储空间。 我能够使用dumpadm -n禁用save-core(从转储设备复制到/var/crash ),但是当我运行zfs destroy rpool/dump ,我仍然得到 cannot destroy 'rpool/dump': dataset is busy ,说明dumpadm -n不够用。 我怎样才能禁用和删除这个专用转储设备?