我在ZFS上运行Ubuntu 16.04。 我有我的操作系统在rpool和我的数据在/坦克 问题:我使用以下命令将2个6TB驱动器添加到了zvol中: #zpool add -f tank mirror $ {DISK1} $ {DISK2} 驱动器添加。 我期待在6TB附近获得一些东西,但我又多了2TB。 这是df -h /tank的输出 Filesystem Size Used Avail Use% Mounted on tank 2.1T 0 2.1T 0% /tank 这里是# zpool list tank的输出 NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT tank 2.57T 460G 2.12T – 7% 17% 1.00x ONLINE – […]
我的同事和我正试图跟踪OpenZFS中L2ARC的读/写。 我们需要块偏移量,IOtypes(读/写)和请求的设备ID。 请注意,我们不需要L2ARC设备中的偏移量,但是我们需要来自原始存储设备的偏移量/设备ID,以模拟哪些存储块通过L2ARCcaching。 浏览OpenZFS源代码(github.com/openzfs/openzfs/blob/master/usr/src/uts/common/fs/zfs/arc.c)并使用Brendan的dtrace教程(dtrace.org/blogs/brendan/2012/ 01/09 / activity-of-the-zfs-arc)一直很有用。 我们相信arc_buf_hdr_t结构包含我们正在寻找的信息。 更确切地说, dva_t b_dva; 字段包含底层存储设备的偏移量和设备ID,我们可以通过arc__miss dtrace探针事件访问arc_buf_hdr_t (variables名是hdr )的arc__miss 。 这给了我们L2ARC的读取,但写入很难得到。 即l2arc__write dtrace探测器事件不能访问这个hdr ,它应该在io_private字段中传递给l2arc__write但是在我们的testing平台中它总是NULL,这对我们来说是没有意义的。 有没有一些干净的方法来获得DVA的l2arc__write dtrace探针事件?
我有一个ZFS备份服务器(Ubuntu 16.04; 32GB内存,4x6TB硬盘,raidz2)。 最近我发现空间有问题。 # zpool list -v NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT pool 21.6T 19.9T 1.76T – 62% 91% 2.30x ONLINE – raidz2 21.6T 19.9T 1.76T – 62% 91% sda5 – – – – – – sdb5 – – – – – – sdc5 – – – – – […]
我在OVH托pipe的FreeNas服务器中有一个失败的驱动器。 我需要让驱动器交换,但我非常清楚他们拉错了驱动器。 FreeNas不会在GUI中报告任何序列号。 到目前为止,我已经做了下面的工作,我不知道如何获得驱动器串行,或更好地闪烁LED? pool: vol0 state: DEGRADED status: One or more devices could not be opened. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Attach the missing device and online it using 'zpool online'. see: http://illumos.org/msg/ZFS-8000-2Q scan: scrub repaired 0 in 15h23m with 0 errors on Sun Jul […]
我想用iSCSI来build立一个存储农场。 我有2个集群节点机,1个安装了8TB的iscsi目标机为RAID 10,容量现在是8TB,但我将来会升级容量。 比方说,我安装了集群作为文件服务器,并将这些服务器连接到iscsi目标,然后我将8TB容量作为唯一文件夹共享给Windows用户。 用户现在只能看到一个容量为8TB的文件夹。 但是如果我想添加另外的8TB来扩展主容量,用户不能看到这个新的8TB的第二个文件夹。 用户必须像以前一样只能看到一个文件夹,但这次这个文件夹的容量扩展到了16TB。 等等,如果我添加另一个8TB,用户只能处理一个文件夹。 为此,我了解到ZFS可以扩展其大小而不会出现问题。 因此,如果我在iSCSI LUN上使用ZFS作为文件系统,群集机器如何看到ZFS。 因为群集机器有Windows 2008.有没有另一种方法来扩大共享文件夹的大小没有问题? ntfs是否支持它?
我一直在使用我的Opensolaris BOX,在ZFS下有6个内部驱动器。 最近我一直在玩ESXi,我不得不说这个平台是惊人的, 因此,我的计划是购买一个漂亮的SSD驱动器,安装ESXi,使用OpenSolaris创build一个虚拟机,并将我的6个磁盘添加到虚拟机中,然后执行zpool导入操作,我的所有数据都将在那里。 我的问题很简单,如果我在VM中导入6个驱动器,是否有任何风险来丢失我的数据? 或者它只是非常直接的,ESXi只会让虚拟机可见而不接触磁盘? 干杯!
我不确定这是ZFS ZPL如何呈现可用空间的一个怪癖,但是SNMP似乎报告的可用空间不超过使用空间的2TB。 这是一个没有配额或预留设置的挂载,只是一个简单的zpool create ,然后随着时间的推移填充数据。 该池中的总空间实际上是6TB。 我想知道是否可能会发生,因为我的仙人掌graphics模板中使用整数types。 有任何想法吗?
对不起,长时间的叙述,但我彻底困惑。 我在configuration为raidz卷的5x3TB SATA磁盘上使用FreeNAS-8.0.4-RELEASE-p2-x64(11367)。 几天前,控制台给了我这个警报: CRITICAL: The volume raid-5×3 (ZFS) status is DEGRADED zpool status给了: pool: raid-5×3 state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scrub: resilver completed […]
目前,我的任务是逐步build立一个ZFS商店。 IOPS不是优先事项,数据安全和容量是。 实际上,我们所拥有的只是一台机器,它包含一个操作系统(很可能是FreeBSD,但可能是OmniOS),2个RAID-1操作系统磁盘和4个SSD,用于caching和ZIL。 RAM将以16GB开始,但如果需要的话,我可以一路升级到128GB(如果会计不会中风)。 这反过来连接到可以处理多达45个驱动器的JBOD机箱。 每个驱动器是4TB。 我正在考虑增加9个驱动器,使用RAID-Z2架构,然后根据需要创build另一个9个驱动器的新vDEV,直到45个驱动器容量完成,然后再添加另一个处理另外45个驱动器的机箱。 在需要创build新的类似configuration之前,有3或4个连接机箱的限制。 另一个可能的select是以7s(RAID-Z2)为单位,一旦我们达到了42的驱动器标记,我们可以插入3个驱动器在任何时候由任何vdevs使用,如果一个驱动器推动雏菊。 架构如下: Storage Server | | | ———————————————— | | | JBOD 1 … JBOD 2 JBOD 3 -vdev 1.1 (9 drives) -vdev 2.1 (9 drives) -vdev 3.1 (9 drives) -vdev 1.2 (9 drives) -vdev 2.2 (9 drives) -vdev 3.2 (9 drives) -vdev 1.3 (9 drives) -vdev […]
背景: 我正在研究使用ext3 / 4以外的文件系统的可行性,并且能够运行快照以备份和回滚。 所考虑的服务器是在Linode基于Xen的VPS平台上运行的邮箱服务器节点。 我尤其喜欢ZFS在数据完整性方面提供的各种已发布的好处,以及今年在Linux中本地ZFS支持的稳定版本 – http://zfsonlinux.org 就益处和简单性而言,ZFS似乎是更彻底的select(而不是LVM + XFS)。 请注意,我几乎没有使用ZFS(我使用本地FreeNAS安装)的经验,而没有使用XFS的经验,因此,这个职位。 迄今为止,我的服务器正在使用ext3文件系统,而不是在LVM下pipe理的。 问题详细: 所以,我有两个问题。 (1)在Xen Linux客户机上运行,两个文件系统中哪一个最适合以下三个方面? 快照 数据的完整性 性能 (2)如果ZFS是一个可行的select,是否可以在Xen磁盘映像上使用RAIDZ来进一步增强数据完整性的解决scheme? 注意:考虑到我在生产系统上使用它的许多警告,我不愿意考虑BTRFS。