有一个新的发行版本3.0: http://www.gluster.com/community/documentation/index.php/Gluster_Storage_Platform 有没有人尝试过这种虚拟机存储? 在性能,可用性等方面,这与基于ZFS的存储解决scheme(如Nexenta等)相比如何?
在Solaris上使用什么方法让系统重新扫描已在SATA控制器上热插拔的新磁盘? 我有一个HP X1600 NAS,它在ZFS池中configuration了9个驱动器。 我已经添加了3个磁盘,但format命令仍然只显示原来的9。 当我插上电源时,我看到了这一点: cpqary3: [ID 823470 kern.notice] NOTICE: Smart Array P212 Controller cpqary3: [ID 823470 kern.notice] Hot-plug drive inserted, Port=1I Box=1 Bay=12 cpqary3: [ID 479030 kern.notice] Configured Drive ? ……. NO cpqary3: [ID 100000 kern.notice] cpqary3: [ID 823470 kern.notice] NOTICE: Smart Array P212 Controller cpqary3: [ID 823470 kern.notice] Hot-plug drive inserted, Port=1I […]
我有一个基于Solaris 11 ZFS的NAS设备,配有12x1TB的7.2k rpm SATA驱动器。 它提供了来自同一池的两项服务 – 一个用于小型VM场的NFS服务器和一个用于承载共享文件的小型团队的CIFS服务器。 ZFS已经删除了cif文件,而NFS ZFS文件系统已经删除了。 压缩到处都是。 我每天快照每个文件系统并保留最近的14个快照。 如果我正在移动,复制或删除大量数据,而直接SSH进入NAS,则会遇到性能问题。 基本上,这个过程似乎阻止了所有其他的IO操作,甚至是由于它们接收到磁盘超时而导致虚拟机停滞。 我有几个理论,为什么应该这样,但是我希望能够对下一步可能做的事情有所了解。 或者: 1)硬件不够好。 我不太确信 – 这个系统是一个带有30GB RAM的HP X1600(单Xeon CPU)。 虽然驱动器只有7.2k SATA,但每个驱动器最多可以推送80个IOPS,这应该足够了。 很高兴被certificate是错误的。 2)我configuration错了 – 更可能。 是否值得在任何地方进行去除? 我正在假设RAM =有利于重复数据删除,因此给予了合理的内存分配。 3)Solaris在调度IO方面很愚蠢。 是否有可能本地rm命令完全阻止IO到nfsd? 如果是这样,我该如何改变呢?
我发现了这样的一个池,并且询问数据如何放置在磁盘上 NAME STATE READ WRITE CKSUM ssdpool ONLINE 0 5 0 mirror-0 ONLINE 0 0 0 c0t5000C50028F820A3d0s7 ONLINE 0 0 0 c0t5000C50028F81673d0s7 ONLINE 0 0 0 c0t5000C5001362B05Bd0 ONLINE 0 0 0 logs c1t0d0 ONLINE 0 0 0 cache c1t1d0 ONLINE 0 0 0 c1t2d0 ONLINE 0 0 0 c1t3d0 ONLINE 0 0 0 我不太确定这个设置是否真的有意义。 这些切片之间有一面镜子,但是那里有一个带有条纹的磁盘? […]
我已经购买了一台用过的HP MDS 600作为JBOD到ZFS文件系统。 最初我只是假设它是一个非常笨的盒子,我可以使用像16端口LSI那样的SAS卡,大多数SATA驱动器,特别是我想到的是3TB WD Caviar Reds。 任何相反的经历? 我有25天左右的时间来“回报”这件事情。 我愿意花更多的钱在一张真正的HP SAS卡上,但是我绝对不能用超高价格的惠普“批准”驱动器来存储这个东西。 更新:我打算使用具有两个空PCIe 8x插槽的Dell PowerEdge 1950。
我有一个ZFS raid-z1太多的存储量。 我想拿出一卷。 是否有可能从zfs RAID存储中删除驱动器? thx为您的帮助
我正在尝试使用以下命令创build一个ZFS池: zpool create MyPool disk /dev/sda 但是,我得到以下错误: 不能使用'/ dev / disk':必须是块设备或常规文件 我觉得我应该能够find这个问题的人,但我没有能够。 /dev/sda是一个空白驱动器。 我哪里错了? 在创buildzpool之前,我必须格式化驱动器吗? 如果是这样,我使用什么格式?
我使用HP ProLiant N54L(AMD N54L,4GB RAM),运行3个三星HD103SJ 1TB和1个三星HD103UJ 1TB,使用zfs raidz2在Lubuntu下运行。 移动池中2个文件夹之间的10 GB文件需要15分钟! 从池中下载20 GB文件到本地计算机花了40分钟。 阅读和写作是非常缓慢的,但我不知道为什么。 zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT tank 3,62T 380G 3,25T 10% 1.00x ONLINE – zpool status -v pool: tank state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 […]
FreeNAS是否可以作为一个虚拟机运行是有争议的。 官方的立场是肯定的,但是需要额外的configuration 。 如果我不能保证我可以遵循这些build议,那么比起运行EXT4 / XFS的vanilla Linux系统,或者使用UFS的FreeBSD,我更容易遭受失败 – 特别是灾难性的失败? 具体来说,假设我将无法执行PCI传递,也不能禁用写入caching。 此外,我将只有一个虚拟磁盘存储(由硬件RAID支持的VMDK),所以没有RAIDZ。 显然,会有备份。 编辑 :澄清为什么我想要做到这一点 – 我需要一个文件服务器,这是我必须使用的基础设施。 如果我需要,我可以得到额外的虚拟磁盘设置RAIDZ,但否则就是这样。 我正在寻找一个好的文件服务器解决scheme,而FreeNAS似乎符合这个法案。 除了所有关于虚拟化ZFS的可怕警告,以及如何丢失所有数据并破坏备份。 我意识到,在这个基础设施上部署FreeNAS是有风险的。 我的问题是:比替代品风险高吗? 编辑2 :我似乎无法沟通我的意图。 带有ZFS的FreeNAS是一个坚如磐石的NAS平台。 然而,从我所读到的看来,使ZFS作为裸机文件服务器更可靠的function,如果在标准的虚拟机configuration上运行,实际上可能会对您有所帮助。 如果是这样,那么使用不同的文件系统是标准虚拟机设置(即没有直接IO,写入caching启用)的更好select。 这是一个正确的评估?
我在Ubuntu上设置了ZFS(通过保险丝)作为存储arrays,尽pipe它处于“testing”状态,但它已经运行了近一年了。 我每隔一段时间login并检查一次数组,使用: zpool status 其结果是: NAME STATE READ WRITE CKSUM media ONLINE 0 0 0 raidz1 ONLINE 0 0 0 sda ONLINE 0 0 0 sdb ONLINE 0 0 0 sdc ONLINE 0 0 0 errors: No known data errors 这一切都很好,但我想自动化一种方法来检查每一次,以确保我的游泳池是没有错误的。 我有仙人掌和zabbix在我的处置。 我想我也可以编写一个程序来处理这个输出,如果找不到“没有已知的数据错误”的话,给我发一封电子邮件。 但是,有没有这样做的软件包,或者说我如何从这个数组中获得一些性能指标?