我正在Ubuntu上尝试使用Native-ZFS。 以下是系统上安装的驱动器: 2 x 2TB 3×1TB 一个200GB的操作系统磁盘 我已经安装了操作系统,并通过PPA安装了12.04的稳定ZFS RC。 在ZFSconfiguration方面,我想获得最大理论容量和1个驱动器故障保护(所以5TB)。 我正在计划这个configuration: 1 zpool: 1 4TB RAIDZ vdev: 3个1TB的驱动器 2个1TB分区,每个2TB驱动器都有一个分区 1 1TB镜像vdev: 2个1TB分区,每个2TB驱动器都有一个分区 首先,这个configuration是否有意义? 有没有更好的方法来实现5TB(例如7 x 1TB RAIDZ2)? 我并不担心performance(尽pipe我对升级能力有些担忧)。 其次,有人可以指点我(ZFS)的咒语来创build这样一个(轻度复杂的)池吗? 我发现所有的指南创build一个1-1 zpool-vdev并使用整个原始磁盘,而不是分区。 我发现的有关分区的大部分文档都是BSD或Solaris,我不确定它适用于Linux的多less。 谢谢!
今天我在服务器上发现了这个(FreeBSD 8.2 STABLE): NAME STATE READ WRITE CKSUM data DEGRADED 1.38K 0 0 raidz1-0 DEGRADED 1.38K 0 0 ad10 ONLINE 1.38K 0 0 ad12 ONLINE 0 0 0 ad14 ONLINE 0 0 0 ad16 REMOVED 0 0 0 我迅速把错误的硬盘驱动器拔下来,换上新的。 之后,我input了这个不吉利的命令: zpool add data ad16 结果是在游泳池里出现了一个新的ad16设备: NAME STATE READ WRITE CKSUM data DEGRADED 0 0 0 […]
我正在使用openSUSE 13.1。 我在zpool上创build了一个新的目录 zfs create zpgd0/iSCSI -o compression=lz4 -o atime=off 但我不看那个…所以我再做一次,但我越来越… zfs create zpgd0/iSCSI -o compression=lz4 -o atime=off cannot create 'zpgd0/iSCSI': dataset already exists 添加一些数据 zpool history History for 'zpgd0': 2014-08-11.13:38:21 zpool create -f zpgd0 raidz2 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0490461 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0603473 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0606817 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0670246 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0673599 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0715212 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0722699 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0731193 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0732862 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0806663 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0807385 scsi-SATA_WDC_WD4001FAEX-0_WD-WMC1F0816943 2014-08-11.14:13:09 zpool set autoexpand=on zpgd0 2014-08-11.14:14:32 zfs […]
man zpool指出zfs池的vdev可以是“常规文件”。 我可以指定一个稀疏文件(关于由底层文件系统确定的文件完整性的警告应该适用于稀疏文件相同的相关性)? ZFSpipe理指南https://pthree.org/2012/12/04/zfs-administration-part-i-vdevs/指出文件vdevs“必须预先分配,而不是稀疏文件或精简configuration”(感谢@ jlliagre)。 在https://wiki.archlinux.org/index.php/Experimenting_with_ZFS稀疏文件没有任何评论使用。
我将购买一台HP家庭服务器的Microserver gen8系统,它包含4个驱动器托架。 我将使用这四个驱动器托架为大容量存储创build一个zpool。 我的目标是能够在这四个驱动器池中的任何两个驱动器故障中幸存下来。 我知道我可以用四驱raidz2游泳池做到这一点 – 这将使我失去4个驱动器中的任何两个,并仍然健康。 但是,当我不需要它时,似乎运行一个raidz2池的开销和弹性压力很大。 那么,是否还有其他一些池configuration可以满足“4中的任何2个”要求? 两个作为一个zpooljoin的镜像不能满足要求,因为我可能会在同一个镜像中丢失两个驱动器并丢失整个池。 谢谢。
创buildzpool后,是否可以将更多物理驱动器添加到镜像vdevs? 例如,如果使用以下命令创buildzpool: zpool create test_pool mirror /dev/sd0 /dev/sd1 mirror /dev/sd2 /dev/sd3 可以将更多的驱动器添加到vdevs以增加冗余? 也就是说,镜像驱动器的数量是否可以从1增加到2?
我试图在我的Solaris 11.3服务器上运行更新,但由于我的rpool上没有足够的空间,所以无法运行。 我试过删除日志文件和其他无用的东西,但这还不够。 因此,我需要扩大rpool的大小。 我的Solaris服务器是一个ESXi虚拟机 ,目前有一个硬盘分配给它100GB 。 服务器有两个ZFS池 – rpool和一个叫solaris更新的数据(问题服务器是我们的repo服务器)。 我从来没有在solaris服务器上做任何系统pipe理,所以这是一种新的。 我也没有访问vSphere – 我必须联系从支持的人,并指示他们我需要什么,然后我可以处理所有的CLI。 什么是最好的行动方式 – 增加现有硬盘的大小,添加第二个硬盘? 任何简单和点的指示将不胜感激。 我已经试过阅读Oracle文档,但是我认为这些说明适用于裸机安装,而不是虚拟环境 。
我有一个4驱动器的ZFS池。 它也有一个3GB的ZIL和一个20GB的L2ARC,每个SDD上的分区都是我的Linux Mint(第13版)引导驱动器的两倍。 池被挂载到/ data。 我遇到的问题是,当我重新启动服务器时,尽pipe之前有数据,池/目录将被完全擦除。 我担心我在设置中做错了什么,这导致我有以下问题: 这会导致什么? 无论如何要拿回数据吗? 我如何阻止它在将来发生? 先谢谢你! 池:数据 状态:在线 扫描:无 请求configuration: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 sda1 ONLINE 0 0 0 sdb1 ONLINE 0 0 0 sdc1 ONLINE 0 0 0 sdd1 ONLINE 0 0 0 logs sde4 ONLINE 0 0 […]
我们目前有一个configuration为RAIDZ的5x3TB磁盘的服务器: zpool status pool: raid-5×3 state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM raid-5×3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada1p2 ONLINE 0 0 0 replacing ONLINE 0 0 0 ada2p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0 ada4p2 ONLINE 0 0 0 ada5p2 ONLINE 0 0 […]
我有一个问题,如果我要能够恢复这个分区,如果我订购更换驱动器。 zpool清除似乎没有做任何事情。 zpool status Partition1 pool: Partition1 state: UNAVAIL status: One or more devices are faulted in response to IO failures. action: Make sure the affected devices are connected, then run 'zpool clear'. see: http://illumos.org/msg/ZFS-8000-JQ scan: scrub repaired 0 in 10h33m with 0 errors on Sun Jun 29 10:33:28 2014 config: NAME STATE READ WRITE […]