我正在使用QLogic QLE2564 4端口8Gb HBA。 我遇到的问题是,当我将qlt目标模式驱动程序连接到卡时,只有3/4端口连接驱动程序。 ffffc10006854e58 pciex1077,2532, instance #0 (driver name: qlt) ffffc10006854b80 pciex1077,2532 (driver not attached) ffffc100068548a8 pciex1077,2532, instance #2 (driver name: qlt) ffffc100068545d0 pciex1077,2532, instance #3 (driver name: qlt) 这三个港口的工作。 我试过切换实例#1的QLC驱动程序(这应该是一件好事),但它会导致不同的端口有驱动程序不附加。 总是有一个与司机独立的港口。 另外,如果我这样configuration,我会从qlt中获得间歇性的内核恐慌。 任何有知识的人? Qlogicbuild议为Qlogic卡使用捆绑的Solaris驱动程序,但是他们表示不支持qlt驱动程序,所以他们不会说卡本身是否存在问题。 如果我使用qlc驱动程序,所有的端口显示正常。 谢谢
我们目前有一个configuration为RAIDZ的5x3TB磁盘的服务器: zpool status pool: raid-5×3 state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM raid-5×3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada1p2 ONLINE 0 0 0 replacing ONLINE 0 0 0 ada2p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0 ada4p2 ONLINE 0 0 0 ada5p2 ONLINE 0 0 […]
我更新了服务器FreeBSD 8.2-p10 amd64到9.1-p1 amd64,我想更新jaz启动ezjail。 我下载了源代码,build立了这个世界并运行命令: ezjail-admin update -i 但得到的消息: can't create tank/ezjail/basejail dataset exist 我究竟做错了什么? 我可以去掉tank/ezjail/basejail ,但是它会使回滚到旧版本的能力复杂化。
我需要创build一个私有云,我正在寻找最好的设置。 这是我最重要的两项要求1.磁盘和系统冗余2.价格/ GB尽可能低 系统将被用作备份设置,它将通过SFTP和rsync 24/7接收数据。 高吞吐量并不重要。 我打算使用glusterfs和消费级4TB硬盘。 我已经制定了3个可能的设置 3个服务器与11 4TB硬盘build立一个副本3 glusterfs和设置每个硬盘作为一个单独的ext4砖。 总容量:44TB硬盘/ TB比率为0.75(33HDD / 44TB) 2台带有11个4TB硬盘的服务器将11个硬盘组合在一个RAIDZ3 ZFS存储池中。 随着副本2 gluster设置。 总容量:32TB(+ zfs压缩)HDD / TB比率为0.68(22HDD / 32TB) 3个服务器和11个4TB消费类硬盘驱动器build立一个副本3个glusterfs并将每个硬盘驱动器设置为单独的zfs存储池,并将每个池导出为一个块。 总容量:32TB(+ zfs压缩)HDD / TB比率为0.68(22HDD / 32TB)(最便宜) 我的言论和担心:如果一个硬盘驱动器失败,哪个设置将恢复最快? 在我看来设置1和3,因为只有1个硬盘驱动器的内容需要通过networking复制。 硬盘驱动器需要通过读取系统中所有其他硬盘驱动器的奇偶校验来重build。 1硬盘上的zfs池会给我额外的保护,以防止比特腐烂? 使用设置1和3我可以松动2个系统,仍然可以运行设置2我只能松开1个系统。 当我使用ZFS时,我可以启用压缩,这将给我一些额外的存储空间。
所以有很多网站采用这样的磁盘分区使用vdevs来重新sorting不同大小的vdevs。 不过,我有以下物理磁盘: Disk /dev/sda: 2000.4 GB, 2000398934016 bytes 255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disk identifier: 0x00000000 Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes 255 heads, 63 […]
我可以从3.1.5-GA ISO启动到一个VirtualBox虚拟机。 但是当我从一张可启动光盘启动时,它停在“Grub Stage2”上,然后在几秒钟后将我放入一个gr rescue拯救shell。 我非常了解如何刻录可启动光盘等。我使用了2张不同的CD,用2种不同的程序刻录它们,试图用不同的CD驱动器启动不同的机器。 为什么不能超越grub的Stage-2? 任何想法,经验? 或者我应该尝试旧版本? 如果有人知道他们的存档发布,请分享? 他们的论坛太慢了。 还是应该坚持FreeNAS,还是更好的学习ZFS? 编辑:如果我使用旧版本,他们的许可证生成将与旧版本一起工作吗? 我不认为他们会支持旧版本
所以我在ZFS上修改linux和zrep 。 我的笔记本电脑上有两台虚拟机,我正在运行zrep并将一个文件系统的内容同步到另一台。 一个意想不到的情况是:如果我在“奴隶” – 接收数据的盒子 – 我不断地阅读文件的内容(例如总和),如果文件正在迅速改变主人我会得到一个input/输出错误的奴隶快照正在申请。 如果我连续读取快照中未更改的文件,则不会发生这种情况。 要清楚的是,正在读取目标文件系统上正在更改的文件的“总计”程序或任何其他标准用户级程序将周期性地发生input/输出错误和崩溃。 ZFS复制本身工作正常 – zrep只是一个很好的pipe理复制过程的工具。 我对这种行为有点困惑 – 会读取应用ZFS快照时得到更新的文件会导致读取错误,还是这是在Linux上的ZFS的错误?
我知道很多人在ZFS上使用GlusterFS。 我想知道快照:如何确保节点间的快照同质性? 我的意思是如果你在一个节点上做一个快照,你怎么能确定它在其他节点上是一样的,以便以后可以使用zfs send / receive? 提前致谢
我喜欢将SSD EBS实例存储作为L2ARC和ZIL用于由EBS支持的zpool 。 走得更远(进入更危险的领域),我可以用2个实例商店创build一个zpool镜像: zpool create vol1 mirror xvdb xvdc 然后使用ZFS快照/复制在EBS上保留“温暖”/最终一致的备份? 我可以丢掉几秒钟的数据 我不想把EBS添加为热备份,因为这会限制整个池的速度
我有一个问题,如果我要能够恢复这个分区,如果我订购更换驱动器。 zpool清除似乎没有做任何事情。 zpool status Partition1 pool: Partition1 state: UNAVAIL status: One or more devices are faulted in response to IO failures. action: Make sure the affected devices are connected, then run 'zpool clear'. see: http://illumos.org/msg/ZFS-8000-JQ scan: scrub repaired 0 in 10h33m with 0 errors on Sun Jun 29 10:33:28 2014 config: NAME STATE READ WRITE […]