我正在使用zfs-fuse作为在现有的CentOS 5服务器上提供文件系统压缩的一种方法。 我正在处理一个高度可压缩的数据集(80%),所以zfs-fuse就派上用场了。 我遇到了存储池的文件权限问题。 看起来,zfs-fuse忽略或仅部分识别非所有者的文件权限。 假设一个zfs-fuse文件系统安装在: /app/november包含权限为666(-rw-rw-rw-)和所有者“jack”的文件,我可以读取文件并以用户“jill”的forms删除它们。 但是,我不能写入这些文件或保存它们。 基本上,如果我不是文件的所有者,一切都是只读的。 [jill@Vail /app/november]$ whoami jill [jill@Vail /app/november]$ ls -l testfile -rw-rw-rw- 1 jack jack 27 Dec 18 12:12 testfile [jill@Vail /app/november]$ touch testfile touch: setting times of `testfile': Operation not permitted [jill@Vail /app/november]$ rm testfile [jill@Vail /app/november]$ touch testfile [jill@Vail /app/november]$ ls -l total 1 -rw-rw-rw- 1 […]
我想了解ZFS ARC的内部工作原理。 不过,我对以下几件事情感到困惑: 实际( zfs:0:arcstats:size )与目标大小( zfs:0:arcstats:c )。 我明白,实际大小分配和存储caching的内容。 但是,目标尺寸是多less呢? 这两者有什么区别? mru_size( zfs:0:arcstats:p )+ mfu_size( zfs:0:arcstats:c – zfs:0:arcstats:p )vs data_size( zfs:0:arcstats:data_size )。 data_size不应该是mru_size和mfu_size的总和吗? 什么是正确的ARC大小分解? 根据http://lists.freebsd.org/pipermail/freebsd-fs/2012-June/014643.html ,它应该是hdr_size + data_size (mru_size + mfu_size + anon_size) + other_size + l2_hdr_size ,但它不会使任何感觉作为mru_size通常比data_size更大。 什么是弧形记忆油门用于? 感谢任何答案/指针。
我刚刚得到了一个4TB的磁盘,我正在运行Ubuntu 12.04。 http://www.thegeekstuff.com/2012/08/2tb-gtp-parted/表示,如果您要使用> 2TB(您可以使用fdisk / gparted执行此操作),则需要使用GPT分区磁盘。 不过,我有兴趣使用ZFS。 当我试图运行zpool create tank /dev/sde ,我结束了2TB: $ sudo zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT tank 1.81T 576K 1.81T 0% 1.00x ONLINE – $ sudo parted /dev/sde print Model: WD My Book 1140 (scsi) Disk /dev/sde: 2000GB Sector size (logical/physical): 4096B/4096B Partition Table: gpt Number Start […]
我在RAID-Z2中有6个物理驱动器,我打算一个一个地转换成dm-crypt设备。 我的过程大概是: dd if=/dev/zero of=/dev/sdf 创build密钥文件/etc/crypttab.d/crypt-1.key cryptsetup luksFormat /dev/sdf 将crypt-1 <raw-disk-uuid> /etc/crypttab.d/crypt-1.key luks到/etc/crypttab cryptsetup luksOpen /dev/sdf crypt-1 zfs replace my_pool <raw-disk-uuid> /dev/mapper/crypt-1 一旦重新启动完成(其中工作正常),我重新启动机器validation设置,然后继续到其他磁盘。 然而,我发现ZFS将crypt-1标记为UNAVAIL。 ls /dev/mappervalidation了dm-crypt正确地激活了LUKS容器。 zpool online my_pool crypt-1运行zpool online my_pool crypt-1会导致ZFS开始重新同步,但是会以秒的方式完成并恢复正常运行。 我猜dm-crypt设备只是在ZFS第一次尝试访问my_pool时不加载? 这是一个加载顺序的问题,还是我需要为/etc/crypttab的LUKS设备使用不同的标识符? 如何确保ZFS在重新启动时看到这些LUKS设备? 如果有问题的话,这是一个systemd box(Arch)。 谢谢! 编辑1: 在cryptsetup创build过程中,我使用SCSI标识符(例如/dev/sdf )用LUKS初始化设备。 但是,在/etc/crypttab我通过底层物理磁盘的UUID来指定设备。 cryptsetup实用程序对于如何识别目标很敏感? 换句话说,我是否需要重新执行cryptsetup并将磁盘UUID而不是SCSI名称传递给它? 编辑2: 我看到以下ls -alsvh /dev/disk/by-id : 0 lrwxrwxrwx 1 root root […]
这个问题是双重的。 第1部分: 虚拟化一个存储解决scheme并运行VMDK而不是原始VMFS数据存储是一个坏主意。 基本上我们假设我有2 TB的RAID值的DAS。 目前我在DAS VMSFS上有几个VMDK。 我想要做的是从VMFS中删除VMDK,为FreeNAS安装(一个大的FreeNAS VMDK)分配一个好的1.8-1.9TB,并通过NFS运行其他的VMDK。 我没有NAS的硬件,但有一堆不同的股份。 这将简化我的pipe理。 我知道有另外一层存储抽象(一个由RAID的DAS格式化为VMFS的NFS上的虚拟ZFS文件系统),但是我不明白这可能太糟糕了。 与DAS上的简单VMFS数据存储相比,NAS还具有更多function。 第2部分: VMWare在长时间运行的快照上皱眉,但是ZFS快照呢? 是否安全\build议在ZFS快照上运行我的客户VMDK(Windows客户端,随机服务器)? 这将使我能够将VM快速回滚到以前的状态,而不会在VMFS上直接运行长时间运行的快照。
我试图在CentOS 7(3.10.0-327.10.1)上创buildzpools,而zpool命令似乎讨厌“wwn-0x”ID。 “zpool status”已清除 – 机器上当前没有configurationzpools。 我有驱动器: lrwxrwxrwx. 1 root root 9 Mar 11 14:30 wwn-0x5000cca2440ba0a0 -> ../../sds lrwxrwxrwx. 1 root root 9 Mar 11 14:30 wwn-0x5000cca2440ba1dc -> ../../sdu lrwxrwxrwx. 1 root root 9 Mar 11 14:30 wwn-0x5000cca2440992cc -> ../../sdl 如果我input: zpool create -f asdf /dev/sds /dev/sdu /dev/sdl 它工作很好。 但是,如果我使用WWN ID,则会出现错误,具体取决于我发送的内容: zpool create -f asdf […]
我负责下载和处理大量的财务数据。 每个交易日,我们必须增加100GB左右。 为了处理这些数据,我们从我们大学的数据中心租用了一个虚拟服务器(3个核心,12 GB RAM)和一个30 TB的块设备。 在虚拟机上,我在Linux上安装了Ubuntu 16.04和ZFS。 然后,我在30TB块设备上创build了一个ZFS池。 使用ZFS的主要原因是压缩function,因为数据是可压缩的(〜10%)。 请不要因为没有遵循ZFS希望看到裸机的黄金规则而对我太苛刻,我不得不使用基础架构。 张贴的原因是我面临一个写速度差的问题。 服务器能够从块设备读取大约50 MB / s的数据,但写入数据的速度非常慢,大约为2-4 MB / s。 以下是有关池和数据集的一些信息: zdb tank: version: 5000 name: 'tank' state: 0 txg: 872307 pool_guid: 8319810251081423408 errata: 0 hostname: 'TAQ-Server' vdev_children: 1 vdev_tree: type: 'root' id: 0 guid: 8319810251081423408 children[0]: type: 'disk' id: 0 guid: 13934768780705769781 path: '/dev/disk/by-id/scsi-3600140519581e55ec004cbb80c32784d-part1' phys_path: […]
试图从另一个硬盘崩溃的solaris 11.1盒子导入一对zfs池。 日志设备损坏,但磁盘很好。 没有任何写入系统(它闲置),所以我不担心在内存中丢失的数据。 试图安装Solaris 11.3并导入池。 将无法工作。 试过zpool import -f和-m。 root@san:~# zpool import pool: zStorage2 id: 714278190328663927 state: UNAVAIL status: One or more devices are unavailable. action: The pool cannot be imported due to unavailable devices or data. The pool may be active on another system, but can be imported using the '-f' flag. config: […]
我在ZFS机器中遇到了一个错误。 我的服务器掉电后,可能会发生这种情况,但我无法确定。 我的带有RAIDZ-1的ZFS Pool Gewuerzglas不再愿意导入。 尝试导入时总是遇到错误: cannot import 'Gewuerzglas': I/O error Destroy and re-create the pool from a backup source. 我已经尝试了几件事情。 非似乎工作。 任何build议如何拯救这个池? 由于所有的驱动器仍然在线,在我看来,数据可能仍然存在,但一些检查总结不好? 我到目前为止所尝试过的 root@openmediavault:~# zpool import pool: Gewuerzglas id: 15011586312885837941 state: ONLINE action: The pool can be imported using its name or numeric identifier. config: Gewuerzglas ONLINE raidz1-0 ONLINE sda ONLINE sde ONLINE […]
我在Ubuntu服务器16.04LTS上设置ZFS和NFS,并有一个奇怪的问题,使我疯了。 我已经使用ZFS共享设置了ZFS和NFS,如https://pthree.org/2012/12/31/zfs-administration-part-xv-iscsi-nfs-and-samba/中所述 。 正如你可以在我的日志中看到的,尽pipe我已经设置了zfs-share在引导过程中运行zfs share -a ,但共享仍然没有被导出。 即使更奇怪,是zfs share -a当我手动运行它仍然不会。 如果我重置其中一个共享的sharenfs属性,然后重新运行zfs share -a我只能让zfs共享工作。 见下文 $ showmount -e Export list for apu: /mnt localhost $ sudo zfs share -a $ showmount -e Export list for apu: /mnt localhost $ sudo zfs share pool1 cannot share 'pool1': filesystem already shared $ sudo zfs get sharenfs pool1 NAME […]