我有一台HP D6000(有时称为MDS 600)存储arrays,带有一个LSI 9207-8e SAS适配器的HP DL380p G8。 当我在OmniOS(Solaris 10 fork)中时,例如dd可以连接到其中一个磁盘,但是我没有看到HDD指示灯闪烁。 在存储arrays的正面是硬盘数字, 而且他们从不点亮。 我怀疑他们应该是绿色的手册 : Green: The drive is online, but is not currently active. Off: The drive is offline, a spare, or not configured as part of an array. 如果我进入LSI设置,那么我可以使用testingfunction获取号码和硬盘来点亮。 题 上面的离线消息意味着什么,如何激活它们,以便我可以将这些磁盘用作ZFS的JBOD?
运行zpool status命令后,我很难理解输出: NAME STATE READ WRITE CKSUM tank ONLINE 6 0 0 raidz2-0 ONLINE 0 0 0 c3t0d0 ONLINE 0 0 0 c3t1d0 ONLINE 0 0 0 c3t2d0 ONLINE 0 0 0 c3t3d0 ONLINE 0 0 0 我在READ旁边看到一个6,我认为这是I / O错误,试图从坦克中读取。 我不明白哪个驱动器在这里是错误的取代。 这有什么值得警惕的吗? 我运行了一个SMARTtesting,没有一个硬盘报告有故障。 我不确定如何处理这个问题。
我有以下testing设置:HP Microserver N36L(双核低功耗Athlon64)8GB ECC内存2端口Intel千兆网卡4x3TB WD Green(5400 RPM?)1个用于操作系统映像(FreeBSD 10.1)的SATA磁盘 交换机是HP v1910-24G(pipe理型二层交换机,24个千兆端口) 客户是:DH67BL主板上的Core i5 2400 24GB RAM 1个Intel千兆位(板载) FreeBSD机器通过iSCSI公开其zvols,发起者是Windows。 在Windows上,iSCSI卷格式化为NTFS,VMWare Workstation将其用作其他VM的磁盘(在这种情况下,也是Windows 7 VM)。 我已经尝试了zvols的几个configuration,主要是从4k到64k的不同值的volblocksize,以及4到64k的NTFS簇大小。 我尝试过blocksize = cluster size和block size> cluster size的组合。 在所有情况下,我基本上都是一样的: 连续读取速度为110-120MB / s(千兆位以太网限制)。 随机读取<5MB / s 在VM之外或之内复制大文件是可以接受的。 启动窗口的速度非常缓慢(全新安装login屏幕需要3分钟以上,桌面更多1分钟) 这是预期的行为?
我有运行FreeBSD 10.1的文件服务器。 服务器的存储由镜像ZFS池中的两个HDD组成。 该服务器正在运行Samba 4.1,作为域成员。 域控制器正在另一台服务器上运行(Windows Server 2012)。 我使用winbind进行AD集成。 问题是,不时(实际上常常)smbdlocking。 从客户的angular度来看,Samba的份额没有反应。 真正奇怪的是,在这样的场合,犯规的smbd进程陷入了D状态:不间断的睡眠。 我不明白是什么原因造成的。 我不在此服务器上使用NFS挂载,所有Samba共享都位于本地ZFS池中。 这个问题特别恼人,因为我无法通过重新启动Samba来修复它:冻结的smbd进程不响应SIGKILL。 唯一的解决方法是重新启动。 这里有一些ps aux信息可以帮助: root 628 0.0 0.7 295348 22688 – Is 10:50AM 0:05.09 /usr/local/sbin/smbd –daemon –configfile=/usr/local/etc/smb4.conf root 641 0.0 0.7 295856 22832 – I 10:50AM 0:01.66 /usr/local/sbin/smbd –daemon –configfile=/usr/local/etc/smb4.conf p######### 812 0.0 0.9 326684 27132 – I 11:04AM 0:03.33 /usr/local/sbin/smbd […]
ZFS中的磁盘replace出错了,现在replace磁盘(即使不再物理存在)被“卡住”在池中,阻止了进一步的replace尝试。 如何删除它? 在OmniOS r151010上有11个磁盘的raidz3池中,其中一个磁盘坏了。 我将问题磁盘脱机,将其replace为新磁盘,并重新configuration了新磁盘。 它开始反弹,然后更换磁盘有错误。 Dmesg显示“SYNCHRONIZE CACHE命令失败”。 我想知道是否可能是一个松散的电缆,所以closures机器,重新插入磁盘和电缆,并重新启动它。 它开始反弹,并在一段时间后有同样的问题。 此时问题磁盘的zpool状态显示 replacing-0 UNAVAIL 0 0 0 insufficient replicas c4t5000C5004DC8693Fd0 OFFLINE 0 0 0 c4t50014EE658315C1Dd0 FAULTED 0 0 0 too many errors 我决定尝试另一个磁盘,看看是否有所作为。 我怀疑它不会,但很容易尝试。 我热插拔磁盘,然后cfgadm -al显示 c8 scsi-sas connected configured unknown c8::w50014ee6ad8f0df2,0 disk-path connected configured unknown c8::w50014ee658315c1d,0 disk-path connected unconfigured unknown 新磁盘在那里,但旧磁盘还没有消失。 我重新启动机器清除旧状态,然后cfgadm -al只显示 c8 scsi-sas […]
在使用zfs的时候,我发现一些现有文件系统的“zfs all all”会列出添加到文件系统名称中的'%'(百分号)属性。 像这样: # zfs list … test_zpool2/test_vol_91 564M 19.4G 564M /vol/test_zpool2/test_vol_91 # zfs get all … test_zpool2/test_vol_91 version 6 – test_zpool2/test_vol_91 vscan off default test_zpool2/test_vol_91 xattr on default test_zpool2/test_vol_91 zoned off default … test_zpool2/test_vol_91% creation Wed Nov 19 17:01 2014 – test_zpool2/test_vol_91% mountpoint /vol/test_zpool2/test_vol_91 – test_zpool2/test_vol_91% share.* … inherited test_zpool2/test_vol_91% zoned off default […]
我只是用napp-it free(openIndiana)inheritance了台式电脑,它被设置为一种NAS,它有2TB上的两个磁盘和一个没有任何冗余的3TB,其中一个驱动器出现故障,现在池离线。 我很新的ZFS和尝试search,但到目前为止,我只是find文章,我应该从备份恢复,我没有。 另一个驱动器包含一些关键的数据,我不是很舒服的尝试,我的问题是有可能恢复池的任何东西,我将如何去做这个? zpool状态输出: state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://illumos.org/msg/ZFS-8000-3C scan: none requested config: NAME STATE READ WRITE CKSUM store UNAVAIL 0 0 0 insufficient replicas […]
我在托pipe主目录的Ubuntu机器上运行ZFS。 池具有以下ACL设置: # zfs get all homes | grep acl homes aclinherit restricted default homes acltype off default 在这里,我有两个具有相同权限的常规文件: # getfacl 1.txt 2.txt # file: 1.txt # owner: usr # group: grp user::rw- group::r– other::r– # file: 2.txt # owner: usr # group: grp user::rw- group::r– other::r– 每天晚上,我都会向Solaris 8上运行ZFS的计算机发送增量快照 zfs send -i homes@$PREV_BACKUP homes@$CURRENT_BACKUP | […]
如果我从一个2驱动器剥离ZFS POOL开始,它会自动成为RAID-5容错池,当我添加第三个驱动器? 我似乎无法find任何我在网上find的有关添加第三个驱动器到条带集并更改为RAIDZ1的ZFS CheatSheets。 有没有人有这种情况下的实际经验?
所以我正在计划我的硬盘ZFS在Ubuntu上。 我非常困惑的一点是创buildzpool所需的硬盘数量。 假设我正在创build一个带有5个硬盘的raidz1。 所需的硬盘数量实际上是6,因为我需要1来运行ubuntu并在其他5个驱动器中创buildzpool。 但是在raid(非ZFS)中,实际上并不需要为您的操作系统安装额外的硬盘驱动器,并且可以在安装过程中configurationraid。 所以我的问题是,是否有可能使用zfs没有额外的驱动器? 任何意见或指向教程将不胜感激。 来源: https : //pthree.org/2012/12/05/zfs-administration-part-ii-raidz/