Articles of ZFS

Server 2012 R2 AD域上的Samba文件共享

概观 我目前有一台CentOS 7服务器,设置为使用KVM的虚拟机主机。 它有一个4TB(2x2TB镜像)ZFSarrays,将用于虚拟机和文件存储。 这是在Server 2012 R2之上从头开始重buildAD域的过程的一部分(旧IT人员留下的当前2008 R2域有些混乱,并且运行在旧的Core 2时代台式机)。 我们需要Server 2012 R2来实现组策略。 有7 / 8.1 / 10机器的混合,但一切都将在几个月内运行Windows 10。 用户在安装到他们的机器上的服务器上有一个共享Z: ,他们还访问服务器上的共享各部门使用的文件。 我们也将实施一个新的备份系统(Crashplan / Carbonite / Mozy是目前最有可能的select)。 规模 该networking由总部约55台计算机以及办公室外的其他计算机组成,以后将通过OpenVPN连接。 总的来说,我在看大约150台电脑。 至less还有很多用户。 另外,新的域名将会有大约一到二十个安全组。 选项 我试图决定如何最好地处理文件存储和networking共享。 具体而言,我是否应该打扰Samba,如果不是,我应该将文件存储在磁盘映像中,还是在ZFSarrays上创build一个数据卷,然后将其作为原始块存储设备传递给Server 2012 VM 。 将文件存储在磁盘映像中以供虚拟机使用对我来说似乎总是一个糟糕的解决scheme。 这很简单,并会工作,但我不特别喜欢它。 如果我需要将这些文件传输到Windows服务器,则必须安装映像或启动虚拟机。 将所有文件都放在一个图像中便于传输,但如果传输中断,则是一个问题。 这可以通过使用像rsync这样的东西解决,但这意味着我只能转移到另一个Linux机器。 使用磁盘映像的另一个问题是,我受限于在虚拟机内部运行备份软件(否则我将失去文件级访问权限)。 虽然我想我可以在主机上以只读方式挂载映像,或者将映像添加到另一个虚拟机,只读访问专用于备份软件。 我知道ZFS允许您创build数据卷,作为块级设备,然后可以作为物理驱动器传递给VM。 这基本上意味着在ZFSarrays中有一个NTFS分区。 我可以将这个卷的只读权限授予另一个可以处理备份软件的虚拟机,也可以在裸机上以只读方式挂载卷,并且可能在Docker容器中运行备份软件。 我也可以通过ZFS快照将文件传输到另一台Linux主机。 转移到Windows主机仍然意味着挂载卷或启动虚拟机。 最后的select是将所有文件直接存储在ZFSarrays中,并运行Samba通过networking共享它们。 虽然我期望有一个相当复杂的权限层次结构,但我担心通过Samba来pipe理它(我只在家庭服务器环境中使用过Samba)。 另一方面,我知道我可以有效地pipe理Server 2012 R2中的层次结构,尤其是使用Powershell。 另外要考虑的是,我可以直接在VM主机上,VM内部或Docker容器内运行Samba,所以它非常灵活。 题 […]

我怎样才能ratelimit znapzend?

我正在使用znapzend做一些备份,不幸的是它充斥着我的gigE连接。 我想要限制znapsend的能力。 就像是: zfs send | pv -L 200m | ssh $ host zfs recv 有什么build议么?

如何在FreeBSD 11 Root-On-ZFS系统上使用镜像RAID来更改GELI密码?

如何在FreeBSD 11 Root-On-ZFS系统上使用镜像RAID来更改GELI密码? 交换设备也被镜像和encryption。 我有/dev/ada0p5.eli /dev/ada1p5.eli和/dev/mirror/swap.eli设备。 谢谢。

Linux上的ZFS:删除“Solaris保留1”分区。 我打破了什么?

我有一个Debian 8 VM: 1个虚拟根磁盘 1x虚拟数据磁盘上带有ZFS文件系统。 当我最初创buildZFS文件系统时,我没有手动创build分区,只是简单地运行这个命令: zpool create -f my-pool /dev/sdb 后来,我使用ZFS文件系统扩展了虚拟磁盘,但是如果不调整ZFS分区的大小,我的ZFS池就无法识别更大的大小,但是另一个分区却挡在了“Solaris保留1”的位置,所以我删除了它。 似乎所有人都工作得很好,但我担心: 为什么ZFS在fdisk -l报告的磁盘上创build第二个分区,如下所示:“Solaris reserved 1”? 我打破了我可能没有意识到的任何事情吗? 这里是fdisk -l输出PRIOR删除分区9以扩展分区1: Disk /dev/sdb: 1.7 TiB, 1864015806464 bytes, 3640655872 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: […]

ZFS-HA池发生元数据损坏

我按照Github的优秀描述设置了ZFS-HA(见这里 )。 经过广泛的testing后,我使用HBA控制器连接到两个节点的RAIDZ3中使用5×12磁盘将设置转换为生产。 直到昨天晚上,这两个存储池中的一个突然出现“池元数据已损坏”的故障。 在scrub运行期间。 在这一点上,我只能推测是什么导致了这种情况,两个池都是在起搏器中使用SCSI栅栏build立的,而且在投入生产之前,我在testing过的所有故障情况下,磁盘保留工作都完美无缺。 最近发生的唯一重大事件是没有UPS支持的两次完全停电(读取:权力刚刚从一个时刻到下一个)。 但是,也可能是腐败的真正原因是完全不同的。 现在的情况是,我不能再import池了(请在这个问题的最后看到zpool import的输出)。 到目前为止,我所有的拯救游泳池的意图都失败了: # zpool import -f tank cannot import 'tank': one or more devices is currently unavailable # zpool import -F tank cannot import 'tank': one or more devices is currently unavailable 这让我感到困惑,因为它并不真正说唯一的select就是摧毁游泳池(这将是一个致命损坏游泳池的预期反应)。 # zpool clear -F tank cannot open 'tank': no such pool 我也手动删除所有的SCSI保留,例如: # […]

zpool升级计划(时间,I / O使用情况等)

我最近将我们的SXCE svn_72盒子升级到了OpenSolaris 2009.06(snv_111b)。 它希望我现在将我的zpool升级到最新版本。 我们需要预先计划zpool scrub之类的事情,因为它需要大量的时间和命令的IO密集性质。 我们的虚拟机磁盘崩溃了。 我应该期望相同的zpool upgrade ? 我们有1.5TB分布在两个raidz1分别由5和7个磁盘组成。

如何恢复ZFS池中的覆盖标签,指针块和ueberblocks?

我在一个单磁盘ZFS池中造成了一个愚蠢的意外,看起来就像这个邮件列表线程中的人一样,也就是说,我似乎已经覆盖了重要的元数据。 这可以从实际的有效载荷恢复,还是有没有办法检索有效载荷没有元数据? 这就是我所做的,确切地说: 有一台ZFS池在一台机器上运行一个磁盘 希望将其迁移到另一台计算机上的新ZFS池 忘记将zpool export到第一台机器上 当zpool create抱怨设备正在使用,我想“没问题,我只是把主机,不再使用”,做了zpool create -f 我应该做的(就像我在RTFM后意识到的那样)是import而不是在新主机上create的。 现在我有一个工作zfspool,但文件系统已经消失/不可见。 我尝试重新导入旧主机上的设备,后来尝试import -D ,但是,显然,两者都不起作用。

在Solaris上,如何安装第二个zfs系统磁盘进行诊断?

(交叉从堆栈溢出发布1 ) 我的电脑中有两个硬盘,第一个安装了Solaris 10u8,第二个安装了OpenSolaris 2010.3(dev onnv_134)。 两个系统都使用ZFS,并使用zpool名称“rpool”独立创build。 在第一个磁盘上运行Solaris 10u8时,如何将第二个ZFS硬盘(位于/ dev / dsk / c1d1s0)安装在任意安装点(如/ a)上进行诊断?

ZFS池的问题

我刚刚在我的池中添加了2个磁盘(c9t6d0 / c9t7d0) zpool状态池:数据状态:ONLINE扫描:磨砂修复480K in 18h45m 0月3日星期二01:40:45 2011configuration: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 c9t0d0 ONLINE 0 0 0 c9t5d0 ONLINE 0 0 0 c9t4d0 ONLINE 0 0 0 c9t3d0 ONLINE 0 0 0 c9t2d0 ONLINE 0 0 0 c9t1d0 ONLINE 0 0 0 c9t6d0 ONLINE […]

ZFS镜像或RAID-Z可扩展性

我正在构build一个基于FreeNAS的服务器,主要用于为Xen虚拟机和专用服务器提供iSCSI磁盘。 我目前的数据需求是8TB的空间,每年大约增长2TB。 我有一个带4G内存的Supermicro X6DHE-XB 3U机箱,我将使用16个SATA热插拔托架。 它配备了2×8端口的3Ware RAID卡,但是我正在计划使用ZFSfunction而不是硬件RAID。 我最初的驱动器集合将是8x2TB HITACHI Deskstar 7K3000 HDS723020BLA642驱动器。 我有2个问题 我将在未来添加额外的驱动器到这台服务器,并将它们添加到存储池中。 理想情况下,我想这样做,而不必重新启动或脱机系统。 ZFS镜像设置与扩展存储池的RAID-Z设置是否有任何限制或优势? 使用热插拔SATA端口,我可以添加一个磁盘,并将其显示在FreeNAS GUI中? 如果性能损失低于5%左右,我宁愿selectRAID-Z2设置,所以我的初始卷大小将是12TB而不是8TB的镜像configuration。 这个服务器将非常忙碌(服务大约60个iSCSI目标),不幸的是,除了投入生产之外,我无法testing它的生产负载。 我很感激用RAID-Z提供大量iSCSI目标的实际性能。