Articles of ZFS

将zpool迁移到zfs分区

我有一个镜像模式下的两个磁盘zpool。 zpool直接安装到/ tank。 现在我想创buildzfs分区,不再挂载整个池。 因此,我需要以某种方式将所有数据从/ tank移动到新位置。 我可以用一些分区创build一个新的zpool,然后简单地将整个/ tank添加到新的分区之一,或者这是愚蠢的? 做这个的最好方式是什么?

Ubuntu和ZFS在重新启动时会丢失池

我正在使用Ubuntu 12.04 LTS的全新安装以及ZFS PPA 。 我发现当我创build一个池,它会挂载和运行正常,但重新启动后,它显示为UNAVAIL,我找不到一个方法把它拿回来。 这里是一个快速testing的日志来演示: root@nas1:~# zpool status no pools available root@nas1:~# zpool create data /dev/disk/by-id/scsi-360019b90b24d9300174d28912b1c485d /dev/disk/by-id/scsi-360019b90b24d9300174d28a610419bec root@nas1:~# zpool status pool: data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 scsi-360019b90b24d9300174d28912b1c485d ONLINE 0 0 0 scsi-360019b90b24d9300174d28a610419bec ONLINE 0 0 0 errors: No known data errors […]

Nexenta,NFS和LOCK_EX

我目前正在使用灯架构,我期望一个大问题:( 我有几个HTTP Web服务器使用PHP5。 所有正在通过NFS(v3)挂载所有托pipe网站的目录。 文件服务器使用ZFS运行Nexenta存储设备。 问题是所有的NFS客户端试图通过NFS在文件中写入一些东西得到这个问题: 这是在apache2过程中: open("/nfs/website1/file.txt", ORDWR|OCREAT, 0600) = 11647 fstat(11647, {stmode=SIFREG|0600, st_size=23754, …}) = 0 flock(11647, LOCK_EX 而且这个过程永远不会得到LOCK,并始终等待…。 效果如何? 所有的apache2 procces得到使用和等待..我的服务器不能仍然处理其他请求,因为没有更多的可用的进程。 我现在不在哪里find一个解决scheme..对我来说,在NFS服务器端..但至极configuration是错误的或丢失? 我怎样才能find什么是错的? 如果您需要更多关于configuration的信息,请问我能为您提供哪些帮助:)

Solaris 10 x86 – 试图replacezpool中的磁盘

我在更换x86处理器上运行Solaris 10的系统上的现有zpool上的磁盘时遇到问题。 zpool最初是使用两个镜像片创build的。 其中一个驱动器出现故障,所以我换了一个新驱动器。 我运行prvtoc和fmthard将磁盘标签从工作驱动器复制到新驱动器上: prtvtoc /dev/rdsk/c1t0d0s2 >/tmp/c1t0d0s2.out fmthard -s /tmp/c1t0d0s2.out >/dev/rdsk/c1t1d0s2 然后,我尝试将新驱动器联机并收到关于设备仍然出现故障的警告: $ zpool online pool c1t1d0s6 warning: device 'c1t1d0s6' onlined, but remains in faulted state zpool status -v的输出是: NAME STATE READ WRITE CKSUM pool DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 c1t0d0s6 ONLINE 0 0 0 c1t1d0s6 UNAVAIL 0 0 0 […]

ZFS / ZFS发送数据库复制

比方说,我有一个有点重要的数据库,但是我并不关心每一个事务。 在暴露之前 – 这是一个存储zabbix状态数据的数据库,所以我真的不在乎ascii控制代码碰到TTY时是否会丢失一两分钟的交易。 如果我想将该数据库复制到另一个主机,我可以做传统的数据库复制,实质上重复pipe道上的事务日志。 有一些问题(比如我会有很多的作家到主数据库和奴隶将只有一个线程插入副本数据),但我也会得到一个“只读奴隶”运行我的报告反对。 而有人来到城里就会明白发生了什么事。 两者都是有价值的,我完全同意。 但是 – 如果我想要聪明呢? 很聪明,我将在打开压缩的ZFS文件系统上运行我的postgresql数据库。 现在,我的数据库正在ZFS上运行,如果我决定需要它,我可以只将zfssend发送到另一个盒子并应用它,或者只是归档zfs发送stream以供以后重播? 在目标机器上进行“不洁净关机后重新清理并重放事务日志”后,生成的数据库是否可用? 假设现在我也想要一个只读的从属服务器来运行我的报告,我可以重播ZFS,创build一个快照,并根据快照启动数据库吗?

ZFS热备份限制写入速度?

比方说,我有一个快速SSD的ZFS池,我想添加磁热备份。 游泳池会减速到热备的速度吗?

禁用ZFSonLinux上的caching

使用ZFS利用一些可用选项并pipe理卷,而不是RAID。 我有一个逻辑设备(硬件RAID)添加到zpool。 ZFS ARC看起来不像我的硬件RAIDcaching那么好,所以我试图禁用它来查看是否可以产生与HW RAID设备上运行的基准testing相似的结果,但是性能在ZFS卷上受到影响。 我尝试禁用primarycache和二级caching,但实际上损害了性能,它没有解决如我所料的使用硬件RAIDcaching。 所以我很茫然 ZFS使用硬件RAIDcaching是不可能的吗? 也许primarycache和secondarycache是​​不正确的参数要修改。 configuration回写BBUcaching的HP P410i RAID10。 Zpool使用RAID中的单个逻辑设备 为testing设备速度创build了一个testing稀疏zvol(/ dev / zd0) 更新到这个问题性能不足是由ZFS开销造成的。 当ZoL的ARC(primarycache)被禁用时,这个时候会有极大的开销,特别是在随机写入时。 我不确定这是否特定于ZoL或ZFS。 如果您希望减lessARC大小但保持磁盘性能,我build议至less保留primarycache = metadata。

ZFS池成员启动扇区覆盖,包括分区表和L0 L1标签。 数据和L2 L3标签完好无损。 如何恢复?

镜像ZFS池中有两个相同的2Tb磁盘。 不幸的是,覆盖错误的磁盘启动尝试通过HP Smartarray P400 RAID控制器作为单独的RAID0逻辑卷附加它们,在那里写入它自己的元数据。 分区表(如果是由zpool create创build的 – 请参见下文)和L0,L1标签丢失。 L1,L2标签和数据在hex中是完整的。 zpool最初是通过简单地向镜像池添加裸设备来创build的 – zpool create tank mirror / dev / sda / dev / sdb。 有什么方法可以恢复?

在纯HBA(JBOD)模式下使用时,LSI 9211-8i是否添加了自己的任何数据结构?

我正在寻找添加一些磁盘到我的系统之一,我需要添加一个板外的HBA。 环顾四周,我碰到了LSI MegaRAID SAS 9211-8i(LSI部件号LSI00194 ),看起来很有趣。 LSI在整体上似乎也很受欢迎,包括在这里 。 由于我运行的是ZFS,因此我打算将HBA本身作为一个傻瓜控制器,让ZFS处理与存储级冗余和恢复有关的所有事情。 主机操作系统是Linux(精确的Debian / Linux)。 虽然我怀疑LSI会很快停止生产这些卡,但是在JBOD模式下使用时,9211-8i是否将自己的任何数据结构添加到磁盘上还是不错的。 换句话说,我可以从9211-8i上拔下磁盘,将其插入备用HBA,并且所有“只是继续工作”? 或者,操作系统会在磁盘上看到某些不通过LSI暴露的垃圾,这可能会干扰ZFS的卷的使用情况?

在将solaris驱动器path映射到物理磁盘时遇到困难

我有一个超微型盒子,前面有24个驱动器,后面有12个驱动器。 它使用zfs运行x86 solaris 10。 以下是zpool状态的输出: NAME STATE READ WRITE CKSUM pool0 DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 c0t50014EE0AD5A2780d0 ONLINE 0 0 0 c0t50014EE6ABA1D6FBd0 ONLINE 0 0 0 c0t50014EE6ABA5D381d0 ONLINE 0 0 0 c0t50014EE6ABB878DAd0 ONLINE 0 0 0 c0t50014EE6ABBA2AE8d0 ONLINE 0 0 0 spare-5 DEGRADED 0 0 3.57K c0t50014EE6ABBA6C1Dd0 DEGRADED 0 0 58 […]