我有这个ZFS池。 NAME STATE READ WRITE CKSUM app ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 c1t2d0 ONLINE 0 0 0 c1t3d0 ONLINE 0 0 0 c1t4d0 ONLINE 0 0 0 c1t5d0 ONLINE 0 0 0 c1t6d0 ONLINE 0 0 0 c1t7d0 ONLINE 0 0 0 它是这样分开的: app/oradata_smart_ora1 1.09G 11.9G 1.09G /oradata/SMART/ora1 app/oradata_smart_ora2 7.07G 10.9G […]
在Solaris 11.1安装中,收到zfs增量stream时会看到停顿。 stream源自Solaris 11.0安装,使用zfs send -i创build并通过mbufferpipe道mbuffer 。 在某些时候,偶尔会看到写性能停顿(实际上在目标磁盘上没有读或写操作, mpstat报告相同或不同核心上的利用率mpstat略高于“系统”的100%,其他0个加载): root@receiver:~# mpstat 5 […] CPU minf mjf xcal intr ithr csw icsw migr smtx srw syscl usr sys wt idl 0 0 0 0 363 103 213 0 9 4 0 14 0 6 0 94 1 0 0 0 113 3 149 0 11 6 […]
我有一个openindiana(oi_151a7)框,在安装过程中我使用了30GB的根分区。 这已经成为rpool1。 我不知道如何使剩余的202 GB可用。 寻找build议。 我的分区表如下: Current partition table (original): Total disk cylinders available: 26469 + 2 (reserved cylinders) Part Tag Flag Cylinders Size Blocks 0 root wm 1 – 3912 29.97GB (3912/0/0) 62846280 1 unassigned wm 0 0 (0/0/0) 0 2 backup wu 0 – 3912 29.98GB (3913/0/0) 62862345 3 reserved wm 1 – […]
我知道ZFS通常用于许多原因,包括令人惊异的镜像function。 但是在这个例子中,我负责安装的机器有一个RAID-1设置,所以我只有一个逻辑磁盘。 我想要ZFS的原因主要是快照 – 这是工作的正确工具还是有更好的方法来有效地模拟ZFS快照? 我有一个鸡或鸡蛋问题 – 是否可以使用ZFS在一个磁盘(/ dev / sda)上安装基本RHEL系统? 看来我可以find所有的参考使用它来集合众多的磁盘与基本系统没有被提及。 我将如何实现这一目标? 请让我知道,如果我可以澄清这一点,因为我完全意识到我的解释充其量是乏味的。
我试图调整我的ZFS池,但为了做到这一点,我想知道当前的l2arc_max_write设置。 我知道默认值是8 MB / s,但我找不到实际值。 我试图在mdb(zfs_params和arc)中查找它,但是该设置似乎没有出现在那里。
我在iSCSI SAN上有一个磁盘,通过多path在我的服务器上挂载。 当我运行命令创buildzfs池使用 zpool create -f zfs-data /dev/sdc 要么 zpool create -f zfs-data /dev/sdd (as the disk is mounted on both sdc and sdd) 我得到错误: cannot open '/dev/sdc1': Device or resource busy cannot create 'zfs-data': one or more vdevs refer to the same device, or one of the devices is part of an active md […]
我正在构build一个使用Ubuntu 13.10作为基础系统的RAIDZ2 ZFS系统,以及zfsonlinux的包,其中有6个专用于池数据的磁盘,以及一些SSD分区来执行ZIL日志和L2ARCcaching。 我的硬盘都是2.0TB(即:略小于2.0TB)的硬盘。 然而,一旦创build了池, zpool list意外地报告了10.9T大小,1.93M分配和10.9T空闲的池。 在一个总共有12.0个磁盘的RAIDZ2中,如何获得接近11T的空闲空间? 我期待有一个只有8.0T的自由空间。 哦,这显然是一个非常类似的问题, ZRAID1池大小比预期的大 ,但是关于RAIDZ2而不是RAIDZ …我会张贴这无论如何,以防万一有人关心RAIDZ2的search。
我正在考虑构build一个针对随机访问进行优化的ZFS服务器(PostgreSQL数据库)。 我觉得我有两个select: 使用由Crucial M500 960 GB SATA III SSD组成的游泳池。 企业级SAS固态硬盘的性价比不高,因为它们的价格可能要比SATA III高10倍。 使用由15K SAS硬盘组成的池。 (相比之下,企业级SAS硬盘和普通SATA III硬盘之间的价格差异要小得多,因此购买SAS硬盘仍然是合理的。) 我的问题是: SATA III SSD和15k SAS硬盘 :大多数针对SATA III的争论都与占空比有关(不适合24/7?),但鉴于消费级SATA III固态硬盘的MTBF(例如Samsung 840 Pro,Crucial M500 )与SAS SSD和15k HDD相媲美,使用M500有什么问题吗? 或者我更喜欢使用15k SAS硬盘,尽pipe随机存取固态硬盘具有明显的性能优势? L2ARC和SSD ZFS池 :如果我只在我的ZFS池中使用SSD,我是否会受益于L2ARC设备?
我知道有很多类似的问题,有几个很好的答案。 尽pipe如此,我仍然没有find所需的东西:支持快照的分布式,横向扩展FS。 Gluster与完成快照支持将是伟大的,但他们似乎仍然在这个概念阶段… 该系统应该能够从20-40TB到100TB以上的多个步骤进行扩展,并且理想情况下是自由许可和开源的。 我对商业解决scheme有点感兴趣,如果它们很实惠(硬件的完整解决scheme可能不在图中)。 GPFS听起来很有趣。 重要: 快照! 高可用性 商品或标准服务器硬件(无Infiniband或FibreChannel) 在POSIX系统上运行 不那么重要: 数据局部性意识 性能(包括吞吐量和延迟) POSIX合规性(ACL,权限,…) 我曾经考虑过在ZFS中使用Gluster作为砖块,并简单地在砖块上进行快照,但是我怀疑这会在Gluster层次上产生可用的快照。 我的另一个考虑就是在Ceph块设备上使用ZFS,并有可能遇到诸如https://github.com/zfsonlinux/spl/issues/241之类的问题,并且性能可能不好。 我也担心ZFS远离实际的硬件。 有没有人有这样的设置经验?
Solaris中encryptionzpool的方式是什么? 所有支持ZFSencryption的文档都会讨论使用“zfs create”并在池中指定数据集。 我刚刚成为了几个Solaris服务器的SA,他们都有encryption的zpools,但没有关于如何获得这种方式的文档。 我知道这是可能的,因为这些服务器的池configuration有encryption,没有数据集。 有任何想法吗?