Articles of ZFS

你可以在ZFS中设置inode配额吗?

我想出了如何在oracle的站点上的文档中设置ZFS中的块配额。 但是,我没有看到/如何设置一个用户获得多lessinode的配额。 我意识到ZFS文件系统有多less个inode可能没有限制,但是当我的用户创build一个包含300个文件的10000个目录深度的目录树时,处理起来会有点痛苦。 如果您可以在Oracle存储设备中进行设置

通过iSCSI SAN在线增加ZFS池的空间

我在SAN上有一个96GB的iSCSI卷,其上实施了ZFS池。 我已将SAN卷的大小从96到120GBresize,但zpool列表只显示旧的空间(96GB)。 如何达到120G的空间或调整ZFS池来利用或识别120GB的空间?

ZRAID1池大小比预期的大

我有3个4TB驱动器的ZRAID1configuration(单一奇偶校验驱动器) 运行后 zpool create data zraid1 sdb sdc sdd 我有一个10.9T的容量,这是我所期望的一个条纹configuration,而不是RAID5configuration。 zpool状态声称这是一个raidz1-0configuration(0是有道理的,这是这台机器上唯一的池)。 为什么我的尺寸不是7.2T? 找出它: zpool list显示池的总数,而不是结果体积大小。 df -h正确显示为7.2T。

NexentaStor:如何分区SSD磁盘?

我正在尝试使用台式机主板,4个SATA驱动器和2个SSD驱动器来设置一些本地存储。 我真的很喜欢使用NexentaStor的漂亮的网页界面,因为它是一些生产就绪的状态,但我也想在我的存储上使用ZIL和L2ARC来加快速度。 我计划将两个SSD分区为4个分区(操作系统,交换,ZIL,L2ARC),将NexentaStor放在由每个SSD的第一分区构成的镜像上,在由第三分区构成的镜像上放置ZIL,并将两个第四分区添加为两个L2ARC设备。 然后我打算创buildRAID-Z2池,添加ZIL和2 x L2ARC。 问题是,NexentaStor不会分区和驱动它使用。 所以我不能简单地为一些分区“打破”固态硬盘,我需要使用整个固态硬盘来达到一个目的,这不是一个好主意,因为固态硬盘对于“开机自检”的使用来说太大了。 所以,问题是: 有没有什么办法可以使用4个SATA硬盘和2个SSD来设置Nexus ZS和L2ARC? PS我在FreeBSD下做了相同的设置,所以没有任何ZFS限制(难怪)。 PPS我不确定,但如果我使用Solaris LiveCD对SSD进行分区并尝试在其上安装Nexentra,但是如果可能呢?

断电后,FreeBSD 10将不会启动到ZFS根目录

在今天安装新硬件时,我不由自主地断开了我们的服务器之一的电源。 该服务器运行安装程序提供的具有Root-on-ZFS的FreeBSD 10。 它共有36个磁盘,分布在两个属于同一个池(称为zroot )的RAID-Z2中。 重新启动服务器后,现在不再启动了。 在启动菜单显示之前,将打印以下消息: Loading /boot/defaults/loader.conf ZFS: i/o error – all block copies unavailable Warning: error reading file /boot/loader.conf 尽pipe有这些消息,系统仍会继续引导内核,直到它停在一个mountfrom>提示符处,我不能从那里继续。 如果我inputzfs:zroot/ROOT/default ,它只是说unknown filesystem 。 然而,我可以从U盘启动,导入zpool,我可以读取/boot/defaults/loader.conf和/boot/loader.conf 。 实际上,zpool似乎是非常好的。 然后我尝试重新安装引导代码: gpart bootcode -b /tmp/zroot/boot/pmbr -p /boot/gptzfsboot -i 1 da0 我试图重新创buildzpoolcaching文件: zpool set cachefile=/tmp/zroot/boot/zfs/zpool.cache zroot 我试图手动告诉bootloader加载ZFS模块。 所有这些尝试仍然导致相同的行为,我现在完全卡在我可以做的,使系统再次启动。 编辑: zpool list输出: $ zpool list NAME SIZE […]

Linux ZFS不缓冲写入缓冲区(SLOG / ZIL)?

遇到写入I / O时, zpool iostat -v中的日志列不会显示任何ZIL活动。 将数据写入磁盘时,会导致高于预期的等待时间(有时会在争用期间超过80毫秒)。 capacity operations bandwidth pool alloc free read write read write —————- —– —– —– —– —– —– storage 1.88T 2.09T 3 3.01K 512K 39.3M mirror 961G 1.05T 0 1.97K 128K 20.8M mpathf – – 0 393 0 20.8M mpathg – – 0 391 128K 20.6M mirror 961G 1.05T […]

ZFS不会自动加载我的池,为什么?

我在我的工作站上运行Linux上的ZFS,已经有两年了: [ 273.779699] SPL: Loaded module v0.6.4.2-1~vivid [ 273.824212] ZFS: Loaded module v0.6.4.2-1~vivid, ZFS pool version 5000, ZFS filesystem version 5 [ 280.179534] SPL: using hostid 0x007f0101 它工作的很好,除了几个月前我升级到Ubuntu 15.04。 升级后重新启动时,没有看到ZFS池。 起初我惊慌失措,但是当我有zpoolsearch我的设备时,发现了缺less的池。 运行“zpool导入存储”工作正常,所有事情都应该如此。 直到下一次我重新启动。 每当我重新启动ZFS似乎忘记我的游泳池。 不过,我看不出有什么明显的错误: $ sudo zpool list -Hv store 1.30T 301G 1.00T – 22% 22% 1.17x ONLINE – sda4 432G 135G 297G – […]

在FreeBSD ZFS上读写速度慢

我的家庭存储服务器,目前由6个3 TB希捷硬盘,12 GB DDR3内存和一个Core i3 540组成,在读取或写入我设置的raidz2时,性能非常差。 使用/usr/bin/time -h dd if=/dev/zero of=sometestfile bs=1024 count=10 : 10240 bytes transferred in 0.000221 secs (46331902 bytes/sec) 反过来说: 10240 bytes transferred in 0.000107 secs (95656287 bytes/sec) 这相当于46 MB / s的写入速度和95 MB / s的读取速度。 这似乎有点慢。 或者这是完全正常的? 谢谢 Tobias Timpe

创buildzfs池,允许用较小的磁盘replace其中一个磁盘

这是关于Linux上的zfs(CentOS 7)的一个问题。 我有一个非常简单的安装两个8 TB磁盘,一个磁盘镜像另一个。 zpool create -f -o ashift = 12 $ zpoolName mirror $ disksById 如果需要更换一个磁盘,根据zpool手册页,更换磁盘的大小必须等于或大于configuration中两个磁盘的最小大小。 从我所了解的情况来看,通常情况下,不同品牌和型号的驱动器(和型号修订版)之间的确切尺寸通常会有所不同,即使它们都被标记为8 TB。 不过, 我希望能够用任何其他的8TB磁盘replace它 ,而不一定是相同的品牌和型号。 我如何做到这一点? 我会期望有一个选项来创buildzpool命令,以便整个磁盘不是用于池,但留下一些松懈,但我找不到这样的选项。 我看到的唯一build议是在创build池之前对磁盘进行分区,创build一个“池”分区和一个“松散”分区,但是我读过这会影响磁盘性能,因为磁盘caching不能被正确使用zfs,所以我想我想避免这个。

在OpenSolaris中用于ZFS的Webadmin或GUI

如何在OpenSolaris中启用ZFS Webadmin或GUI? 这似乎是可能的,但不是一个直接可用的包 。 有没有人只使用OpenSolaris软件包工作,还是必须从Solaris Express中获取?