哪个最好? 使用HW raid镜像2个内部磁盘,然后将ZFS文件系统放在最前面 要么 使用没有HW Raid的2个内部磁盘,并使用2个磁盘创buildZFS镜像。 我已经读过,为了获得ZFS的全部好处,它至less需要2个磁盘才能充分利用其纠错和预测function。 它是一个关于硬件RAID的ZFS ontop的问题,或者只是ZFS,而不是硬件vs ZFS。 性能不是我的问题。
我打算利用Openfiler或NexentaStor CE实施“穷人储存”。 我需要Filer解决scheme来提供iSCSI目标和CIFS共享function。 iSCSI目标和CIFS共享稍后将作为XenServer存储库安装。 我可能还需要复制function,但不需要RAID,因为Filer将安装在已经具有诚实的硬件RAID 1 + 0的“老”服务器上。 在上面的两个解决scheme之间,你推荐哪一个,为什么? 或者,除了Openfiler和NexentaStor CE之外,还有其他解决scheme吗?
在ZFS中,您可以构build文件系统层次结构以在每个文件系统中包含不同的fs属性。 对于insance,压缩在一个地区,没有执行/在别人suid,noatime。 例如,FreeBSD的HOWTObuild议创build下列文件系统: zfs create -o compression=off -o atime=off zroot/root zfs create -o compression=on -o setuid=off zroot/tmp zfs create -o zroot/usr zfs create -o zroot/usr/home zfs create -o compression=lzjb -o setuid=off zroot/usr/ports zfs create -o compression=off -o exec=off -o setuid=off zroot/usr/ports/distfiles zfs create -o compression=off -o exec=off -o setuid=off zroot/usr/ports/packages zfs create -o compression=lzjb -o […]
我正在使用基于Nexenta推荐架构的双头ZFS支持的NAS来实现高可用性群集共享存储,如下所示: 1 JBOD中的磁盘将存储单个4 TB Postgres数据库的数据库文件,以及其他JBOD存储20 TB大型原始二进制平面文件(用于大型恒星物体碰撞模拟的聚类结果)中的磁盘。 换句话说,支持Postgres文件的JBOD将主要处理随机工作负载,而支持仿真结果的JBOD将主要处理串行工作负载。 两个头节点都有256 GB的内存和16个内核。 该集群有大约200个核心,每个维护一个Postgres会话,所以我预计大约200个并发会话。 我想知道在我的设置中是否明智地让ZFS头节点同时作为我的群集的一对Postgres数据库服务器? 我能看到的唯一缺点是: 缩小基础设施的灵活性较差。 略低的冗余水平。 Postgres的内存和CPU资源有限。 然而,我看到的好处是,ZFS对于自动故障转移是非常愚蠢的,无需花费大量的工作就可以让每个Postgres数据库服务器找出头节点是否失败,因为它会与头部一起失败节点。
我在Linux上使用ZFS,并且遇到了一个相当奇怪的症状,即当我向系统添加更多磁盘时,每个驱动器写入的速度降低,从而有效地否定了顺序写入性能的附加主轴。 这些磁盘通过SAS磁盘架上的HBA(LSI 9300-8E)连接到主机 在下面的testing中,我在IO Zone iozone -i 0 -s 10000000 -r 1024 -t 10上运行以下命令 以下是我的testing结果: 在我的第一个testing中,我创build了一个包含12个磁盘的镜像,它显示了每个磁盘的预计写入性能,每秒大约100 MB / s。 zpool create -o ashift = 12 -f PoolA镜像S1_D0 S2_D0镜像S1_D1 S2_D1镜像 S1_D2 S2_D2镜像S1_D3 S2_D3镜像S1_D4 S2_D4镜像S1_D5 S2_D5 容量操作带宽 池分配空闲读写写读写 ———- —– —– —– —– —– —– 池A 3.60G 10.9T 0 5.06K 0 638M 镜子612M 1.81T 0 863 0 […]
ZFS文件系统可以在其上设置aclinherit和aclmode属性,以控制可inheritance的ACL条目如何与对象创build和Unix样式的权限操作交互。 不幸的是,官方文档对于这两个属性在计算ACL的angular色方面究竟有什么区别,有点神秘/模棱两可。 为了说明,请从Oracle®Solaris 11.3中的“保护文件和validation文件完整性”中摘录这些摘录,重点是: aclinherit – 确定ACLinheritance的行为… 和: aclmode – 修改最初创build文件时的 ACL行为,或控制在chmod操作期间如何修改ACL。 这真是令人困惑,因为当一个文件最初被创build时 , ACLinheritance将会发生或者不会发生! 至于chmod ,上面的语言和一些例子表明它的行为是由aclmode ,但在第45页上也有一个例子说明它是由aclinherit 。 我有一种感觉,这也是用于创build文件的API中的variables复杂。 (我熟悉Windows API,但不是* nix的。) 我觉得即使阅读完文档后,我对这些属性的工作原理也有一些不完整的描述。 两者之间的区别究竟是什么? 他们似乎有一些重叠,所以什么pipe辖哪些应用? 如果他们矛盾呢?
服务器有4GB内存,我的zpool是由15.5k SAS驱动器组成的,如下所示: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 c0t2d0 ONLINE 0 0 0 c0t3d0 ONLINE 0 0 0 c0t4d0 ONLINE 0 0 0 c0t5d0 ONLINE 0 0 0 c0t6d0 ONLINE 0 0 0 c0t7d0 ONLINE 0 0 0 c0t8d0 ONLINE 0 0 0 raidz1-1 ONLINE 0 […]
我在Linux上使用zfs,使用sharesmb=on选项来尝试本地smb共享function,而不是将zfs tankpath添加到我的smb.conf文件中。 共享已经显示在我的Windows机器上,但我的Windows用户无法写入它。 我想我假设zfs smb接口正在将我的windows用户映射到具有相同名称的linux用户。 我通常会做一个用户名映射文件映射到Linux用户的Windows,但似乎没有必要,因为用户名是相同的。 本地smbshare是否使用smb.conf,或者是否有应用samba设置的zfs pool命令?
这可能是一个天真的问题,因为我是新手,我无法find关于mdadm + zfs的任何结果,但经过一些testing,似乎它可能工作: 用例是一个带有RAID6的服务器,用于某些备份的数据。 我认为我可以很好地服务于任何ZFS或RAID6。 平台是Linux。 性能是次要的 。 所以我正在考虑的两个设置是: 一个RAID6arrays加规则的LVM和ext4 一个RAID6arrays加上ZFS(没有冗余)。 这是第二个选项,我没有看到任何讨论。 为什么ZFS + RAID6? 这主要是因为ZFS无法使用新磁盘来增长raidz2。 我知道,你可以更换更大的磁盘,但不能添加另一个磁盘。 您可以使用mdadm作为冗余层来实现2磁盘冗余和ZFS磁盘增长。 除了这个要点(否则我可以直接去raidz2下没有RAID),这些都是我看到每个选项的利弊: ZFS有没有预先分配空间的快照。 LVM需要预分配(可能不再是真实的)。 ZFS有校验(对此非常感兴趣)和压缩(很好的奖金)。 LVM在线文件系统增长(ZFS可以通过export / mdadm –grow / import离线执行)。 LVM具有encryptionfunction(ZFS-on-Linux没有)。 这是我看到的这个组合的唯一主要内容。 我想我可以去RAID6 + LVM + ZFS …似乎太重了,还是不行? 所以,以一个适当的问题来结束: 1)是否有什么内在的阻碍或排除RAID6 + ZFS? 任何人都有这样的设置的经验? 2)校验和压缩有没有可能使ZFS不必要(保持文件系统增长的可能性)? 因为RAID6 + LVM组合似乎是被认可的,经过testing的方式。
我正在使用Freenas 8.2,并决定升级到9.2。 所有似乎进展顺利,升级zfs到28,并重新启动。 在下次启动时,似乎需要一直持续,在某个时候,我决定closures机器。 我想这是造成这个问题的原因。 当我尝试导入时,我得到以下内容: [root @ freenas]〜#zpool导入 池:vol4disks8tb id:12210439070254239230 状态:FAULTED 状态:该池最后一次被另一个系统访问。 操作:由于设备或数据损坏,无法导入池。 该池可能在另一个系统上处于活动状态,但可以使用导入 '-f'标志。 请参阅:http://illumos.org/msg/ZFS-8000-EY configuration: vol4disks8tb FAULTED损坏的数据 raidz2-0在线 gptid / 3d316d16-f53e-11e1-9da5-080027dfca8a在线 gptid / 3df02143-f53e-11e1-9da5-080027dfca8a在线 gptid / 3eb99e55-f53e-11e1-9da5-080027dfca8a在线 gptid / 3f91c723-f53e-11e1-9da5-080027dfca8a在线 [root @ freenas]〜# 编辑:命令“zpool import -f”,“zpool import -f -F -n”和“zpool import -f -F”返回与前一个命令完全相同的输出。 编辑#2:命令“zpool import -f 12210439070254239230”返回 无法导入'vol4disks8tb':I / O错误 从中销毁并重新创build池 一个备份源。 […]