Articles of ZFS

为什么zfs / btrfsbuild议用于lxd主机?

请注意,为获得最佳性能,build议在btrfs文件系统上安装/ var / lib / lxd,或者设置ZFS或LVM,并将LXDconfiguration为使用ZFS池或LVM VG。 资源 这是为什么? 也就是说,这些文件系统(在主机上)如何等同于更好的容器性能? 是计算性能吗,是不是因为写时复制,既不是,也不是别的什么,减less了硬盘的消耗? 编辑1 感谢@Sven指出“LVM VG”是指逻辑卷pipe理器卷组。

除raidz2之外是否还有一个zpoolconfiguration可以让我在4次失败中保持2次?

我将购买一台HP家庭服务器的Microserver gen8系统,它包含4个驱动器托架。 我将使用这四个驱动器托架为大容量存储创build一个zpool。 我的目标是能够在这四个驱动器池中的任何两个驱动器故障中幸存下来。 我知道我可以用四驱raidz2游泳池做到这一点 – 这将使我失去4个驱动器中的任何两个,并仍然健康。 但是,当我不需要它时,似乎运行一个raidz2池的开销和弹性压力很大。 那么,是否还有其他一些池configuration可以满足“4中的任何2个”要求? 两个作为一个zpooljoin的镜像不能满足要求,因为我可能会在同一个镜像中丢失两个驱动器并丢失整个池。 谢谢。

如何避免多个用户通过NFS导出的ZFS挂载点的长列表?

我们运行的群集大约有50个映射为Linux组的用户组。 每个组都有一个从通过NFS导出的ZFS存储服务器分配的文件系统。 这会导致需要通过NFS客户机节点挂载的很长的挂载点列表。 同样, df -h的输出也很长,列出了每个用户组的所有挂载点。 有没有办法通过某种方式来重build或重新configurationZFS服务器,同时仍然有效地pipe理用户组,例如配额,访问权限等。 以下是zfs list命令的部分输出: ~]# zfs list NAME USED AVAIL REFER MOUNTPOINT intp1 43.7G 47.9T 219K /zfs/1 intp1/sam 43.7G 47.9T 219K /zfs/1/sam intp1/harry 219K 4.00T 219K /zfs/1/harry intp1/rick 219K 4.00T 219K /zfs/1/rick intp1/kim 43.7G 3.96T 43.7G /zfs/1/kim intp2 252G 47.7T 252G /zfs/2 intp2/johnson 219K 8.00T 219K /zfs/2/johnson intp2/hoekstra 219K 8.00T […]

zfs从设备中删除设备

在阅读标题和滚动眼睛之前,我已经阅读了所有的答案,文章和文章,说一旦你做完了就不能缩水。 但是,我看到这个post,声称做到这一点(即从一个活动池中删除一个设备,并收缩池使用剩余的磁盘)。 我试图在我的存储主机上做到这一点: root@file2:~# zpool remove datastore sdh cannot remove sdh: only inactive hot spares, cache, top-level, or log devices can be removed 所以,我猜测我正在使用旧的/不同版本的zfs。 有没有人有使用这个function的经验? 我完全错了,这仍然是不可能的? 如果有关系,我正在运行Ubuntu 15.10。

如何将更多物理磁盘添加到镜像vdev(以增加冗余)?

创buildzpool后,是否可以将更多物理驱动器添加到镜像vdevs? 例如,如果使用以下命令创buildzpool: zpool create test_pool mirror /dev/sd0 /dev/sd1 mirror /dev/sd2 /dev/sd3 可以将更多的驱动器添加到vdevs以增加冗余? 也就是说,镜像驱动器的数量是否可以从1增加到2?

caching设置为我的networking服务器(varnish,bcache)

我有几个关于caching的问题: 基本上我有一台服务器,为其他地方托pipe的网站提供图片/video。 它运行球童(但这不是重要的)。 我有一个8TB的ZFS(硬盘)池,在编写本文时,大约有1TB的东西,这些文件往往是caching的好目标,因为访问模式不是随机的(一个特定的post将会stream行几天并获得成千上万的点击率,然后减慢)。 我也有一个200GB的SSD,我打算用于某种caching。 我想得到一些反馈是什么样的caching将是最有用的。 FWIW我的服务器有32GB RAM。 我的主要问题是(在记忆中)如果我有更多的内容比记忆更清漆有用吗? 我已经做了一些关于当Varnish耗尽内存以及我读过的东西暗示“不好的事情”时会发生什么情况的search,但是这对我来说似乎很奇怪。 我可以想象,如果在短时间内高频率地击中一些物品,即使没有足够的内存来caching一切,Varnish也会performance的很好。 接下来的问题是关于bcache,这在很大程度上取决于关于我们的用例的清漆可行性的答案。 我有这个200GB的固态硬盘,我应该使用它作为bcache(并且在内存中有varnish),或者我应该使用光盘上的清漆(在SSD上,比大HDD池还要快很多)内容的一部分被caching?

设置SSH,让FreeNAS无需密码即可连接到Mac

我想发送一个ZFS数据集到运行OpenZFS的Mac。 我已经能够使用terminal将FreeNAS数据集复制到运行OpenZFS的Mac。 我做了这个使用SSH密码authentication。 我想为此设置一个FreeNAS(基于FreeBSD的NAS服务器)复制任务,但是由于没有SSH密钥设置,我得到了拒绝权限的错误。 我已经尝试在FreeNAS GUI中设置复制任务,指向我的远程Mac的IP,然后按下SSH密钥扫描button,并且它填充了一个密钥。 我尝试将该密钥文本保存到一个文件,并使用远程Mac上的ssh-add命令添加它,但它不断要求密码,我不知道。 如果我留空白,它只是结束命令(或者可能增加它,但我仍然失败)。 在我的FreeNAS服务器和运行OpenZFS的远程Mac之间使用SSH密钥需要采取哪些步骤? 我在网上find了关于如何在FreeNAS上生成SSH密钥的信息,但是我不想搞乱现有的复制任务。 也许它不会,但我不想冒险把我现有的所有复制品都拿下来,而尝试我从未做过的事情。

如何通过NFS共享ZFSfunction

我们正在计划使用ZFS的一些function,比如: 快照。 文件系统的层次结构(每个用户都有自己的)。 自定义用户属性。 克隆。 是否有可能通过NFS共享所有这些function到Linux客户机? UPD:所以如果不可能通过NFS,我们应该使用什么类似NFS的协议?

在OpenSolaris上使用ZFS时,磁盘吞吐量显着降低?

我正在为我工​​作的小型企业构build一个简单的ZFS文件服务器。 该服务器是戴尔Poweredge 840,具有1GB的RAM。 操作系统(OpenSolaris 2009.06)安装在一个SATA驱动器上,另外还有三个SATA驱动器用于存储:1x1TB,1×1.5TB和1x2TB。 当我将三个驱动器添加到一个raidz zpool,吞吐量不是很好: #zpool create -m /export/pool pool raidz c7d1 c8d0 c8d1 #zfs create pool/fs #time dd if=/dev/zero of=/export/pool/fs/zerofile bs=1048576 count=1024 1024+0 records in 1024+0 records out real 0m12.539s user 0m0.002s sys 0m0.435s 那大概是81.6 MB / s。 这不是可怕的,但我尝试创build一个只包含其中一个驱动器的池: #zpool create -m /export/disk-c7d1 disk-c7d1 c7d1 #zfs create disk-c7d1/fs #time dd if=/dev/zero of=/export/disk-c7d1/fs/zerofile […]

如何使用mdadm / btrfs raid1或zfs镜像获取两个磁盘的读取速度?

鉴于RAID1写入数据的两个副本,我的理解是读取应该接近单个磁盘的两倍。 我已经testing了不同技术(mdadm,zfs,btrfs)的读取性能,但成效不大。 从我的经验: 在读取期间,btrfs只使用一个磁盘 zfs / mdadm使用了两个磁盘,但读取速度是单个磁盘 我已经使用dd,iotop和iostatvalidation了结果。 如何同时读取两个磁盘上的数据,以获得两倍的磁盘读取性能?