看起来像3个设备,可以使用mirror或raidz2模式configurationZFS池。 性能和可靠性有什么不同? (关于可靠性,我特别感兴趣的是部分数据丢失的话题。)
我们有一个运行在openindiana上的zfs文件系统,几乎是纯粹的只读工作负载。 最近我们发现io被阻塞或者每隔1分钟停顿2-3秒左右。 有谁知道为什么发生这种情况,以及如何阻止它发生? pool: data state: ONLINE status: The pool is formatted using a legacy on-disk format. The pool can still be used, but some features are unavailable. action: Upgrade the pool using 'zpool upgrade'. Once this is done, the pool will no longer be accessible on software that does not support feature flags. scan: […]
ZFS现在对于内存写入caching的TXG(事务组提交)有5秒的时间间隔。对于旋转介质来说,ZIL数据从一个SSD SLOG到多长时间是多久? ZIL是否也会在5秒后发生(当然在系统负载允许的情况下)?
我想在这种情况下禁用ZFS自我修复: https : //pthree.org/2013/12/10/zfs-administration-appendix-c-why-you-should-use-ecc-ram /在这种情况下,错误的RAM(ECC或非ECC)与自我修复相结合导致了我想要避免的磁盘数据损坏。 我不想禁用校验和。 如果校验和失败,我希望它被logging下来,但是如果错误是由错误的RAM造成的,而不是由错误的磁盘造成的,则不能修复。 是否可以在不禁用校验和的情况下禁用ZFS自我修复? 如果是,请告诉我如何。
假设我有两个zpools – 一个是数据库的数据库文件,一个是数据库事务日志。 如果我做了一个zfs快照-r数据库@快照,所得到的快照都是在同一时间完成的? 或者将每个池的快照内部保持一致,但是它们在池中不一致?
我inheritance了ZFS装载的FreeNAS设置。 我在ZFS上跑过这个速成教程 (没有以前的经验),但是它不能回答我的问题。 当我运行zfs list时,我有这个zfs list : [root@nas] ~# zfs list NAME USED AVAIL REFER MOUNTPOINT data1 1.41T 372G 193M /mnt/data1 data1/data 8.38G 41.6G 8.38G /mnt/data1/data data1/lan 530G 270G 530G /mnt/data1/lan data1/virtualmachines 900G 620G 651G – 正如你所看到的, data1/virtualmachines没有安装。 实际上,它被作为iSCSI导出到将其用作数据存储的VMWare主机。 这个设置是如何创build的,此外,我怎样才能安装这个,所以我可以做备份(我正在升级我们的NAS)。
我已经把一个zfs文件系统从由一堆或镜像vdevs组成的池移动到另一个由两个raidz1组成的池中,命令如下 # zfs send -R pool/project@moving | zfs recv tank/project 据我了解的手册页,“-R”移动所有的元数据,包括压缩algorithm等,这正是我所看到的: # zfs get compression pool/project NAME PROPERTY VALUE SOURCE pool/project compression lz4 local # zfs get compression tank/project NAME PROPERTY VALUE SOURCE tank/project compression lz4 received 那么为什么目标池(槽)上的文件系统比源池(池)大20%以上。 差不多有6TB,我很好奇,在那里丢失了。
我遇到了一个CentOS 7服务器的问题,我有一个ZFS池(当前)是与一个运行的KVM虚拟机(CentOS 6 guest)一起创build的。 Top是报告虚拟机正在使用我系统内存的大约50%(这是正确的 – 我已经configuration了32 GB总共16 GB),但是,免费报告使用中的活动内存大约为26 GB。 有一个额外的10 GB的RAM在使用的地方,我根本无法find,即使我已经限制ZFS只使用4 GB的弧。 顶部显示没有别的使用内存: PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 10928 qemu 20 0 20.773g 0.015t 680 S 55.8 50.7 12148:34 qemu-kvm 530 root 20 0 59376 7940 7796 S 0.0 0.0 1:52.59 systemd-journal 1913 root 20 0 1063816 […]
我的问题是,我的zfs突袭部分raid一部分退化,部分被雷击后摧毁。 我能够检测到zpool状态的问题: zpool status myzfs pool myzfs state: DEGRADED (DESTROYED) 好消息。 ZFS似乎是非常可靠的,我在我的情况下能够完全恢复袭击。 我如何恢复下面的答案。 恢复ZFS Raid我学到了两件事: 1失败的驱动器带来一个zpool下来 。 然而,基于加强型镜子的突袭仍然可用。 在ZFS中详细说明:您应该使用镜像vdevs,而不是RAIDZ 基于raidz2-0恢复和重新启动zpool需要很长时间。 用条纹镜可能会更好。 这在互联网 sdfg广泛讨论有利有弊 RAID不是备份 ! 离线备份到云或第二个位置是一个很大的优势,今天可能没有任何大的优惠。 大多数Raid允许备份到云或ZFS复制到另一个NAS Orignaldebugging信息 但是,这并不一定重要,检测和解决问题。 我对我的freenas 9.2.1有麻烦。 它今天坠毁。 它在zfs jbod raid 2上运行一个文件服务器。我不确定究竟是什么导致了这个问题。 系统启动,但反应很慢。 从日志中我无法确定任何错误。 因此,我不确定在哪里得到错误分析和如何解决它们。 问题是系统崩溃,响应速度很慢。 由于pyhon死亡,freenas的web界面也崩溃了。 Freenas安装在USB棒上,附加一个驱动器(2tb)用于备份。 其他4个驱动器运行zfs RAID。 硬盘确实显示出明智的错误。 我怎样才能解决他们? 愿他们成为问题的原因。 最佳 CPU: 0.1% user, 0.0% nice, 2.5% system, […]
我有一个FreeBSD 10.0系统,在这个系统上,我的MySQL运行着其存储在ZFS上的InnoDB数据库文件。 似乎几个月来一直很好,但最近,似乎突然间,performance已经触底。 在围绕MySQLdebugging了一阵子之后,我终于决定只是看看从文件系统读取数据库文件是否缓慢。 我选了一个数据库文件大约是16GB的表,运行: time cat table.ibd > /dev/null 并得到: cat table.ibd > /dev/null 1.24s user 64.35s system 0% cpu 1:00:34.65 total 相比之下,生活在同一个系统上的UFS文件副本(有一些变化,我确定:数据库是活的)给了我: cat table.ibd > /dev/null 0.20s user 9.34s system 5% cpu 9.550 total 以下是此系统上的非默认ZFS选项: /boot/loader.conf: vfs.zfs.arc_max=17179869184 – /etc/sysctl.conf: vfs.zfs.prefetch_disable=1 – zfs get: recordsize 16K compression on atime off primarycache metadata zfs:zfs_nocacheflush 1 […]