Articles of ZFS

从Openindiana build 151a7迁移到FreeBSD 9.1的问题

目前,我正在ESXi上运行Openindiana,通过RDM访问ZFS池中的2个磁盘。 我曾经在Linux上使用ZFS运行Ubuntu,但由于ESXi 5.1支持我的硬件,我想从ZFS实施转移到本地ZFS系统。 我简单地导出了我的ZFS池,将ESXi安装在USB盘上,并将我的操作系统安装在单独的SSD上。 我没有任何问题导入池到Openindiana,但由于某种原因,Openindiana想升级我的池,这有点奇怪,因为它已经是v28,但我继续前进,无论如何。 现在,几个月后,我想给FreeBSD一个testing是否有任何性能差异,但这是当我遇到问题。 FreeBSD不会导入我的池,因为它说它是一个更新的版本,我觉得很奇怪,因为Openindiana和FreeBSD都使用ZFS v5和zpool v28。 这就是FreeBSD告诉我的: #zpool import pool: tank id: <ID> state: UNAVAIL status: The pool is formatted using an incomaptible version. action: The pool cannot be imported. Access the pool on a system running newer software, or recreate the pool from backup. see: http://illumos.org/msg/ZFS-8000-A5 config: tank UNAVAIL newer version […]

freenas zfs读取性能很糟糕。为什么?

我只是设置了一个带有4个SATA硬盘驱动器的zfs raid-z2,并进行了一些性能testing。 现在我正在将Linux映像推送到存储中。 我的笔记本有一个400MB / s的本地读写速度的samsung 840pro SSD。 使用Samba4。 我可以连续写入105 MB / s的平均值。 我印象深刻,这是一个1Gb / s局域网的真正的好点子。 然而,读取速度很慢,networkingio可能以平均值从几kB跳到30MB / s。 约10MB / s。 添加一个l2arc没有帮助。 任何想法,为什么阅读performance如此糟糕? 这是正常的吗?

我的磁盘arrays有多大?

在我的SunOS 5.10主机上有3个Sun 6140磁盘arrays,我想知道磁盘容量。 根据zpool list ,我有一个5TB和16TB的池。 format显示我只有12个磁盘 c2t1d31: configured with capacity of 16.00MB c3t4d31: configured with capacity of 16.00MB c5t4d31: configured with capacity of 16.00MB c6t1d31: configured with capacity of 16.00MB AVAILABLE DISK SELECTIONS: 0. c0t0d0 <LSILOGIC-LogicalVolume-3000 cyl 65533 alt 2 hd 16 sec 136> /pci@780/pci@0/pci@9/scsi@0/sd@0,0 1. c2t1d31 <SUN-UniversalXport-0660 cyl 8 alt 2 hd 64 […]

在zfs上找不到创build的目录

我正在使用openSUSE 13.1。 我在zpool上创build了一个新的目录 zfs create zpgd0/iSCSI -o compression=lz4 -o atime=off 但我不看那个…所以我再做一次,但我越来越… zfs create zpgd0/iSCSI -o compression=lz4 -o atime=off cannot create 'zpgd0/iSCSI': dataset already exists 添加一些数据 zpool history History for 'zpgd0': 2014-08-11.13:38:21 zpool create -f zpgd0 raidz2 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0490461 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0603473 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0606817 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0670246 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0673599 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0715212 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0722699 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0731193 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0732862 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0806663 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0807385 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0816943 2014-08-11.14:13:09 zpool set autoexpand=on zpgd0 2014-08-11.14:14:32 zfs […]

如何指定要使用iozonetesting的path?

我有一个有ufs文件系统的freebsd安装。 在freebsd里面,我在raidz1中创build了一个zpool。 现在我想在zfs上执行iozonetesting,但我无法理解如何在zpool上指定iozonetesting,而不是基本文件系统。

重新进行数据传输?

我目前有一个raidz2中有四个驱动器的生产服务器和一个configuration和硬件完全相同的备份服务器。 我目前正在生产服务器和备份服务器之间使用rsync传输数据。 我发现它的速度很慢,甚至是局域网。 想法:如果我从生产服务器上卸下两个驱动器,并将它们放在备份服务器上以重新启动备份服务器驱动器,然后使备份服务器自己的最后两个驱动器重新启动,该怎么办? 这是否会使转移速度显着加快 – 这是一个聪明的想法? 任何人都知道如何做到这一点(我担心,如果我发出错误的命令,我可能会重弹并丢失所有的数据)。

Rsyncing到一个压缩的zpool

我一直从一个NFS装载Rsyncing启用压缩启用本地zpool。 当我rsync,它复制每个文件,而不仅仅是新的/改变的。 这是因为目标上的压缩文件大小不同吗? 语法我正在使用:rsync -vr / source / / destination /

ZFS – 重新连接断开但完全完好的磁盘

如果磁盘与ZFSarrays断开连接,但驱动器本身完好,则重新连接时会发生什么情况? 例如,如果我有两个驱动器的镜像,如果有一个被断开连接,然后重新连接,那么ZFS是否会继续停止,或者是否需要将所有数据重新复制到断开连接的磁盘? 如果有一个带有条带化单磁盘vdevs的zpool,不pipe磁盘是否重新连接,是否是池的烤面包? 同样,在RAID10风格的configuration中,如果一组镜像断开连接,那么这个池是否已经不存在了?

zfs:数据集不存在

我无法设置池的安装点。 # zpool import pool: wd-black id: 18120690490361195109 state: ONLINE action: The pool can be imported using its name or numeric identifier. config: wd-black ONLINE crypted-wd ONLINE 游泳池通常是可见的,我可以将它导入一些direcotory。 但是我不能设置也不能获得挂载点: # zfs set mountpoint=/ wd-black cannot open 'wd-black': dataset does not exist 你能说我为什么有这个问题吗? 先谢谢你。

zfs是否logging冲击压缩比率

我们在启用了lz4压缩的zfs上托pipe了一个postgresql95 OLAP数据库。 build议我们将zfs recordsize调整为8KB,因为这是postgres块的大小。 提前写入日志位于自己的数据集,其logging大小设置为1M: NAME PROPERTY VALUE SOURCE ssd recordsize 128K default ssd/pgdata recordsize 8K local ssd/pgdata/log recordsize 1M local 我注意到日志压缩比较好。 我不知道原因是它是更可压缩的,或者如果小logging真的伤害了压缩比。 NAME PROPERTY VALUE SOURCE ssd compressratio 1.84x – ssd/pgdata compressratio 1.84x – ssd/pgdata/log compressratio 2.64x –