我有一个Nexenta系统在过去几年运行良好。 最近有一个系统磁盘出现故障— syspool是ZFS镜像的一部分。 如果我将系统的BIOSconfiguration为从工作驱动器启动,则屏幕上会显示文本GRUB (“GRUB”后跟空格),系统不响应。 如果我从Nexenta安装光盘启动并尝试设置根目录,如下所示: root (hd1,0,a) …我从GRUB收到以下消息: Filesystem type unknown, partition type 0xbf 但是,如果我要在新的Nexenta安装上发出上述root命令,我会看到: Filesystem type zfs, partition type 0xbf 我如何让GRUB识别幸存的根镜像磁盘,以便我可以从它启动? 而且,在将来,当根镜像中的设备出现故障时,我应该遵循什么程序,以便我可以正确地恢复(并从镜像池中的任何驱动器启动)?
我目前有一台运行带有12x1tb磁盘的Oracle Solaris Express 11的存储服务器。 它目前提供两个function:1)通过NFS为小型vSphere 4.1场提供数据存储,2)通过SMB为团队提供networking共享。 ZFS的优势对于我们迄今为止的用途来说是显而易见的。 但是,我们正在开始考察单点故障,并调查消除它们。 一个明显的单点故障是NAS本身。 如果涉及Solaris或NAS硬件的软件或硬件问题,则会使整个存储池脱机。 我们已经有了购买另一个等效机箱+磁盘的预算,但是我的软件选项是如何将这些机箱集中在一起并使存储池更加可用? 我已经阅读了一些有关HAStorage +的东西,作为一个可以进行存储集群的软件,但是也可以通过两个节点来集群NFS和SMB服务吗? 我可以期待实现自动故障转移的解决scheme吗? 最后,有没有什么体面的指导如何设置呢?
我刚刚build立了一个HP Micro Server N40L作为一个FreeNAS,在一个RAIDZ中有4个2tb驱动器。 我的速度在30-40MB / sec左右,偶尔会有50MB / sec的突发,读写类似于这个范围的低端。 据我可以告诉CPU没有过度劳累,当我从RAIDZ中的一个文件夹内部复制到另一个文件夹,我打了80MB /秒。 我想知道什么可能是提高读写速度的最佳方法。 调整我的GigEnetworking,添加一个ZFScaching驱动器等?
我有一台FreeNAS 8机器(FreeBSD 8.2-RELEASE-p1),上面有两个不同的共享。 我正在将文件从Share1迁移到Share2。 这些共享有不同的目录结构和命名约定。 我正在寻找一种方法来validationShare1上的文件在Share2上实际存在(而且是准确的)。 我的计划基本上是对两个共享上的每个文件进行校验,并确保Share1集中的所有校验和存在于Share2集中。 我可以用bash脚本相对容易地做到这一点,但是生成每个校验和集会花费很长时间。 我的问题是:是否可以访问本机ZFS校验和使用它们进行比较?
我已经创build了ZFS数据集并安装了虚拟服务器。 突然之间,我的ZFS卷的可用空间消失了,但并不是每个数据集都使用了所有的空间。 我想介绍自动精简configuration(使用ZFS稀疏卷)。 是否可以将数据集转换为稀疏卷而不删除它们? 谢谢。
我正在使用FIO(灵活I / Otesting器)testingZFS镜像,以了解ZFS镜像的随机读取可扩展性。 主要和次要caching已经被设置为none,因为我使用的应用程序执行它自己的caching。 出于testing目的,我使用磁盘/dev/sdb和/dev/sdc ,它们具有〜100个随机读取IOPS。 当使用单个磁盘ZFS安装时,单个磁盘数字是从FIO获得的。 我对ZFS镜像的理解应该经历大约200(100 + 100)个随机读取IOPS。 当testing时,我只遇到大约140随机读取IOPS。 完整的结果如下: test@pc:/mnt/zfs-raid1# fio –name=randread –ioengine=libaio –iodepth=16 –rw=randread –bs=4k –direct=0 –size=512M –numjobs=8 –runtime=240 –group_reporting randread: (groupid=0, jobs=8): err= 0: pid=4293: Wed Nov 16 21:02:08 2016 read : io=137040KB, bw=584482B/s, iops=142, runt=240091msec slat (usec): min=222, max=2246.9K, avg=56047.94, stdev=85252.98 clat (usec): min=2, max=5142.9K, avg=838922.05, stdev=443521.12 lat (msec): […]
我有一个控制器服务器和两个24个SAS文件服务器arrays。 每个文件服务器arrays都设置为一个ZFS池,每个RAIDZ2 vdevs有6个驱动器。 最终,我希望能够将控制器服务器用作两个文件服务器的单个装入点。 主要思想是我的最终用户只需访问一个控制器服务器和一个安装点,以便在两台服务器的组合存储容量上访问/备份他们的数据。 我正在考虑使用glusterfs,但是迄今为止我所能find的信息似乎是用于生成冗余存储池的。 在这个应用程序中,gluster正被用作分布式镜像RAID1,这并不适合我的需要,因为它会产生另一个不需要的冗余级别。 您如何build议我从两台独立的计算机上托pipe的ZFS池创build非冗余分布式文件系统? 有没有办法做到这一点与gluster,或者如果有不同的NFS更适合完成这个? 我也考虑过桑巴舞,但是我不确定它是否足够安全。 我真的很喜欢只有在控制器上公开托pipessh的严格的2FAauthentication的前景。
公司如何在非常紧张的预算下pipe理大型文件服务器(例如17TB)及其相关备份? 在单个虚拟磁盘上使用ZFS(或BTRFS)是否可以进行写入时复制function以消除对fsck的需求? (即不为其RAID,快照等function) 具体情况: 我们需要退役一个古老的有问题的存储系统,它为NFS提供虚拟存储服务,并且仍然是我们的主要文件服务器。 我现在有了一个新的基于40TB iSCSI FreeNAS的存储系统,并且已经将旧存储中的所有虚拟机迁移到了新的虚拟机,但是17TB的SMB / CIFS和AFP共享文件依然存在。 通过rsync完成备份需要很长的时间来扫描17 TB,所以我们分成了两个卷: 对于未修改为一年的文件,在只读“归档”卷上为13 TB。 要进行备份,我们只需使用rsync进行现场和非现场复制 – 无需每日备份版本。 4 TB活动可写存储。 每天使用rsync进行备份,并使用硬链接在当天创build文件服务器状态的“快照”/版本,以便我们可以恢复覆盖的文件。 当需要修改时,IT人员将文件从存档移到现场,但这些请求现在每天多次,不再可接受。 原计划: 创build一个虚拟的Linux文件服务器。 在我们新的40TB存储系统上创build2个虚拟磁盘。 (13 TB存档+ 4 TB可写直播) 使用ext4文件系统格式化磁盘 使用带有挂载选项的UnionFS向用户呈现上述文件系统的单一统一视图,所有写入操作都将转至4TB可写入系统。 原计划的问题: 我们超出了rsync的基于文件的性质作为备份工具,例如重命名1TB顶级文件夹导致整个1TB文件夹的完整新副本。 这只会为基于块的备份添加几个KB。 实施UnionFS只是给整个系统增加了一层复杂性,我真的很想避免。 由于rsync必须重新扫描整个文件服务器来比较已更改的文件,即使只更改了一些文件,也需要很长时间才能完成备份。 它要求我们进行连续存档,以保持可写容量足够小,备份一夜之间完成。 备选计划1:备份的一个大容量和ZFS快照 上面创build计划的Linux文件服务器,但有一个大的卷,而不是两个,消除了对于联盟的需要 要备份这个非常大的服务器,这将花费rsync太长时间,而是使用ZFS快照,并使用“zfs send”来复制异地。 替代计划1的问题: 在17TB ext4文件系统上的fsck需要几天的时间! 想象一下,周一上午的事件需要重新启动,并在启动时强制fsck,或者更糟糕的是,文件系统损坏! 备选scheme2:Linux服务器上的ZFS / BTRFS文件系统 按照备选计划1,但使用写时复制文件系统(如ZFS或BTRFS)而不是ext4,因为这些文件系统不需要fsck。 替代计划2的问题/顾虑: ZFS和BTRFS都需要直接访问原始磁盘来实现自己的RAID,因此通常不会在虚拟磁盘上使用。 这将如何在单个虚拟磁盘上工作? 备选scheme3:FreeNAS直接作为文件服务器 而不是有一个单独的虚拟文件服务器,直接从FreeNAS共享文件 替代计划3的问题: 我们需要安装各种软件包和自定义的perl […]
我想了解什么是通过10 GbE链接连接的Linux(ZoL)盒子上的两个ZFS之间的实时复制的最佳解决scheme。 目标是将其用于虚拟机; 一次只有一个盒子会运行虚拟机和ZFS文件系统本身。 快照需要在第一个(活动)框中可能。 我打算使用企业/近线级别的SATA磁盘,所以双端口SAS磁盘是没有问题的。 我想在以下可能性: 使用iSCSI导出远程磁盘,并在本地盒子的ZFS磁盘和远程iSCSI磁盘之间build立镜像。 这个解决scheme更大的吸引力在于它的简单性,因为它使用ZFS自己的镜像。 另一方面,ZFS不会优先考虑远程磁盘上的本地磁盘,这可能会导致性能下降(我认为这与10 GbEnetworking几乎没有关系)。 而且,引起更大关注的是,在两个盒子之间的networking链路丢失的情况下,ZFS将如何performance。 当远程机器可用时是否会重新同步arrays,还是需要手动干预? 使用DRBD同步两个ZVOLS并在DRBD设备的顶部放置ZFS 。 换句话说,我正在谈论一个堆叠的ZVOL + DRBD + ZFS解决scheme。 这似乎是我的首选方法,因为DRBD 8.4非常稳定并得到证实。 然而,许多I / O层在这里玩,性能可能会受到影响。 顶部使用普通的ZFS + GlusterFS 。 从ZFS的angular度来看,这是更简单/更好的解决scheme,因为所有的复制stream量都被委托给GlusterFS。 你觉得GlusterFS足够稳定吗? 你觉得更好的方法是什么? 谢谢。
我正面临着一个问题,即在16TB的容量中,ZFS似乎缺less了大约4TB的空间。 ZFS池正在报告正确的大小(16.3TB): nmc@thn-nstor1:/$ zpool list NAME SIZE ALLOC FREE EXPANDSZ CAP DEDUP HEALTH ALTROOT nstore1pool1 16.3T 15.2T 1.11T – 93% 1.00x ONLINE – syspool 29G 9.20G 19.8G – 31% 1.00x ONLINE – 然而, zfs list命令报告的数据less了4TB: nmc@thn-nstor1:/$ zfs list NAME USED AVAIL REFER MOUNTPOINT nstore1pool1 12.4T 770G 116K /volumes/nstore1pool1 nstore1pool1/.nza-reserve 49.8K 770G 49.8K none nstore1pool1/nstore1zvol1 28.4K […]