我最近将Ubuntu 16.04上的镜像mdadm分区转换为zfs镜像池,所以我想。 在使用zfs池几天后,我重新启动了系统,zfs池消失了。 “zpool list”没有列出丢失的zpool。 它只列出了我有的另一个zpool。 我的问题是: 我可以恢复丢失的ZFS池吗? 如何从mdadm中完全删除分区,所以这不会再发生? / proc / mdstat使用我用于zfs池的分区显示一个新的md设备: md127 : inactive sdb3[1] sda3[0] 2047737856 blocks super 1.2 在尝试将此设备转换为ZFS之前,它显示在/ proc / mdstat中,如下所示: md3 : active raid1 sdb3[1] sda3[0] 1023868928 blocks super 1.2 [2/2] [UU] bitmap: 0/8 pages [0KB], 65536KB chunk 为了把分区转换成ZFS,我做了: 注释掉/etc/mdadm/mdadm.conf中的条目 使用mdadm命令停止RAID分区(我没有记下我使用的确切命令)。 /etc/mdadm/mdadm.conf包含: # mdadm.conf # # Please refer to […]
我有一个由6个磁盘组成的ZFS池,排列成3个镜像。 该服务器是一个带Xeon CPU的Supermicro X11SSM-F,32 GB运行Ubuntu 17.04的ECC内存。 我使用2个Icy Dock MB154SP-B物理地托pipe磁盘,主板上有8个SATA3接口,所以磁盘直接提供给ZFS(中间没有RAID卡)。 这个设置运行良好,直到最近。 然后我注意到在运行zpool status ,最后的擦洗已经修复了一些数据: $ sudo zpool status pool: cloudpool state: ONLINE scan: scrub repaired 2.98M in 4h56m with 0 errors on Sun Jul 9 05:20:16 2017 config: NAME STATE READ WRITE CKSUM cloudpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-ST8000VN0022-2EL112_ZA17FZXF ONLINE 0 […]
所以我在Ubuntu服务器上有一个共享驱动器(称为“Share_Drive”)。 该文件夹在我家networking上公开分享。 这两个磁盘位于ZFS镜像池中: 但我注意到在Windows中,networking驱动器上的文件夹显示了一个奇怪的“磁盘大小值”。 我希望它显示“尺寸”值的两倍,但事实并非如此。 下面是一个PC备份的文件夹,大小是文件夹大小的1.53倍。 这是Windows错误阅读文件夹的实际大小,或者我设置了镜像池错误的情况? 编辑 zfs get all: NAME PROPERTY VALUE SOURCE Share_Drive type filesystem – Share_Drive creation Wed Jul 12 20:22 2017 – Share_Drive used 1.57T – Share_Drive available 194G – Share_Drive referenced 1.57T – Share_Drive compressratio 1.00x – Share_Drive mounted yes – Share_Drive quota none default Share_Drive reservation none default […]
我绝望得到一些帮助。 目前在我的工作中,我inheritance了一个NAS系统,之前的pipe理员使用OpenIndiana oi_151a5在ZFS文件系统上构build。 问题是,其中一个SSD驱动器处于故障状态,并且是日志分区的一部分。 它是raid1设置的一部分,它认为/ tank2 zpool。 我们买了更换固态硬盘(英特尔SSDSC2BB120G401串行),但是当我去做一个zpoolreplace,错误与“设备有不同的扇区alignment”。 从这些链接find了一些文档: zpool命令错误:………………….. https://wiki.illumos.org/display/illumos/ZFS+and+Advanced+Format+disks https://wiki.uiowa.edu/pages/viewpage.action?pageId=109796051 https://github.com/zfsonlinux/zfs/issues/566 ……………. ……. 然而,他们推荐的修复似乎要么吹走zpool,要么下载修补后的二进制zpool-12 – 我这样做,只是给出了与正常的zpool命令相同的错误。 这是我想要replace的驱动器上的统计数据: ************* [Dead HDD] c6::w55cd2e404bd0a454,0 connected configured unknown Client Device: /dev/dsk/c2t55CD2E404BD0A454d0s0(sd18) unavailable disk-path n /devices/pci@0,0/pci8086,340e@7/pci1028,1f1c@0/iport@f0:scsi::w55cd2e404bd0a454,0 [Still working HDD raid1 Mirror] c6::w55cd2e404bd06fa3,0 connected configured unknown Client Device: /dev/dsk/c2t55CD2E404BD06FA3d0s0(sd17) unavailable disk-path n /devices/pci@0,0/pci8086,340e@7/pci1028,1f1c@0/iport@f0:scsi::w55cd2e404bd06fa3,0 *********** 这也是我试图故障转移的新驱动器。 *********** root@:/kernel/drv# iostat -Er […]
我有OpenSolaris 2009.06服务器通过NFS v3向Linux 2.6.26服务器提供ZFS。 通过NFSv4访问文件时不会发生。 很高兴。 它在我们的LSI san中捕获了无声的数据损坏。 很好的performance;很好的绩效。 有快照。 有压缩。 事务日志重放备份。 最重要的是,我们不再有FScaching问题,并冻结发生在Linux服务器上。 有一件奇怪的事情:Linux NFS客户端无法访问空文件。 当我尝试了ls,cat或者stat时,我得到: stat: cannot stat `/srv/zpools/a/write.lock': Invalid argument Rsync备份报告: rsync: readlink "/srv/zpools/a/write.lock" failed: Invalid argument (22) rsync: readlink "/srv/zpools/userX/.netbeans/6.9/var/cache/mavenindex/netbeans/write.lock" failed: Invalid argument (22) rsync: readlink "/srv/zpools/userX/.netbeans/6.9/var/cache/mavenindex/local/write.lock" failed: Invalid argument (22) rsync: readlink "/srv/zpools/userX/javaPrograms/mavenProjects/thesis/libbn/target/test-classes/.netbeans_automatic_build" failed: Invalid argument (22) rsync: readlink "/srv/zpools/userX/javaPrograms/mavenProjects/scalaCommon/target/test-classes/.netbeans_automatic_build" failed: […]
我有一个运行KVM的Ubuntu服务器。 我想获得ZFS的好处,所以我想在运行Nexenta(或NexentaStor)的KVM下安装虚拟机,让虚拟机能够原始访问几个物理硬盘,然后让它共享使用NFS文件系统,以便Ubuntu可以访问它。 我从来没有尝试设置KVM,以便虚拟机可以访问物理驱动器。 这听起来可行吗?有什么需要注意的吗? 有人已经logging这样的事情? Nexenta / ZFS在虚拟环境中的function基本如同运行基础骨骼一样吗? 我可以采取一个小的性能打击,但我不希望它不可靠,因为虚拟化。 谢谢。
我有一个3年的电脑,4GB RAM Dualcore / Intel,4个热插拔SATA硬盘(每个500GB,2 + 2 LINUX RAID-1configuration – 所以我有2 500GB镜像卷)。 每个卷都有大约60-70%的数据 – 总共600-700GB的数据。 现在,由于某种原因,我想用ZFS将整个系统移动到Freebsd 9.0中 。 我有另一个1TB的驱动器,所以我想结束与5个驱动器的zpool(根在ZFS上) – 但需要保留来自linux卷的数据。 所以,计划: 将没有zfs的freebsd安装到新的1TB硬盘上(基本安装) – 或者在新的驱动器上创buildext3分区 – 但是我不确定它后来进入fbsd。 启动当前的Linux,挂载1TB的freebsd硬盘(或ext3),并将所有数据从linux复制到新的1TB硬盘 断开驱动器(确定) 在某些RAIDconfiguration中将一个新的freebsd安装到4个500GB的硬盘驱动器中(请参见下面的qst文件) 从ZFS启动新的freebsd 连接1TB驱动器 安装1TB硬盘并将所有数据复制到新的freebsd ZFS中 使zfs快照 最后想用zpool add命令将1TB驱动器添加到zpool中 – 我希望这是可能的和正确的步骤。 这个计划好吗? 肯定会更好的简单备份所有的数据,安装freebsd到5个驱动器,并恢复 – 不幸的是,外部备份驱动器将在下周进来,我不想等待。 任何关于我需要照顾的事情? 最后,configuration4个驱动器ZPOOL并添加另一个(更大)驱动器到池后的“最佳实践”是什么? Thanx在advace的有用的意见。 Ps:我读过一些其他服务器故障的问题,比如关于FreeBSD上ZFS的build议作为一个NAS盒子? ,但也许有一些点我失踪…
几个相关的问题。 背景:我有一堆驱动器,我想用在HP Proliant Microserver中,它有一个带有FreeNas的4插槽SAS笼。 我不想花费更多的零件。 1)使用Zfs和RAIDZ,将2 x 1TB希捷Barracudas与2 x 1TB WD Green驱动器混合会有多糟糕。 后者绿色驱动器是我相信只有5,400 RPM,但我无法确定的信息。 2)哪一个更好,在RAIDZ或2×3TB希捷梭子鱼在镜子上面的错误匹配。 考虑性能和数据安全 3)我有一个备用的250GB的驱动器和一个备用的SATA插槽(光驱,不能确定的速度),这将是一个性能增益使用ZIL和L2ARC(只使用主驱动器)。 提前致谢。
我正在configuration一个全新的HPC服务器,并且有兴趣使用SmartOS,因为它具有虚拟化控制和zfsfunction。 这种configuration对于SmartOS HPC是否有意义,或者您会推荐一种替代scheme? 系统规格:2x 8核xeon 384 GB RAM 30 TB HD,配有2x512GB固态硬盘 用途: – zfs将数据提供给不同的vms,并通过networking; 1个L2ARC固态硬盘和1个ZIL – 通常是1-2个运行R和定制C / C ++代码的ubuntu实例 作为SmartOS和ZFS的新手,我最担心的是: (1)如果它是唯一活动的虚拟机,我将从运行在SmartOS上的ubuntu获得接近金属的性能吗? (2)如何将数据从全局zfs池提供给容器和其他networking设备?
我有一台存储服务器,在ZFS存储arrays上运行带有MySQL的Nexenta(OpenSolaris内核,Ubuntu用户空间),使用innodb_file_per_table和ulimit -n设置为8K。 mysqltuner.pl确认文件限制并声称有169个文件。 以下命令: pfiles `fuser -c / 2>/dev/null 表示一个具有485个文件/设备描述符的mysqld进程(它们几乎全部用于文件),所以我不知道调优脚本有多可靠,但仍然小于8K,而且这个列表也没有find其他的进程接近于极限。 全球使用的描述符总数约为1K。 那么什么原因可能会导致mysqld不断stream出以下错误? [date] [host] mysqld[pid]: warning: cannot open /etc/hosts.allow: Too many open files [date] [host] mysqld[pid]: warning: cannot open /etc/hosts.deny: Too many open files 一切似乎实际上运行良好,但问题是不断充斥pipe理控制台,立即启动一个新的启动(不仅可重现,但总是从mysqld和总是主机文件,其权限是默认的-rw-r–r– 1 root root )。 我可以,当然,从pipe理控制台,但我宁愿到它的底部,仍然允许mysqld警告/错误到达pipe理控制台。 编辑:不仅是实际的文件描述符在理智的限制之内,即使文件限制提高到65535并始终只在hosts.allow / deny上,问题也会持续(立即出现)。