我目前正在为新服务器开发一个需求规格说明,并试图用可用的技术衡量好处和缺陷。 我们目前的服务器使用最近失败的RAID-5光盘布局,导致数据丢失。 存储池/空间似乎是值得从我目前阅读的内容进行调查,但是searchServerFault已经导致了一些问题被提出。 我的问题是,Storage Pools / Spaces背后的技术是否已经发展到足以成为企业级存储和数据服务的可行select,是否应该坚持使用RAID-5或者查看另一个RAID解决scheme? 我目前的偏好是使用RAID-10,但是我不确定是否可以将此作为可行的开支。 非常感谢
我有这个规格的服务器中的Centos 6.2: 2xCPU 16 Core AMD Opteron 6282 SE 64GB RAM Raid controller H700 1GB cache NV – 2HD 74GB SAS 15Krpm RAID1 stripe 16k (OS Centos 6.2) sda – 4HD 146GB SAS 15Krpm RAID10 stripe 16k (ext4 bs 4096, no barriers) sdb -> /vol01 Raid controller H800 1GB cache nv – MD1200 12HD 300GB […]
我试图找出如何测量LSI控制器后面的几个RAIDarrays的总字节数(或最大预期的百分比,或者是好的)。 这些控制器都是LSI MegaRAID SAS 9271-8i控制器。 我已经尝试使用MegaRAID存储pipe理器和MegaCLI,但似乎都没有显示我需要的信息。 我已经在网上find了一些解决scheme,但是它们似乎只适用于Linux,在那里你可以修补内核或以非常规方式使用smartctl。 这在Windows上不适用于我。 我真的很想避免把硬盘拉出来,放在另一台机器上,用SMARTtesting,然后把它们放回去。 将是一个真正的痛苦在脖子上。 如果很重要,每个控制器都有两个虚拟驱动器组,每个驱动器组有4个磁盘,分别位于RAID10和SAS SSD组成的组中。
是否有可以在SNMP中提供的PowerEdge服务器上创buildRAID信息的最小安装,以便我可以使用Nagios进行监控? 我发现命令行实用程序,我可以使用check_by_ssh,但我相信我会需要setuid / sudo他们听起来太冒险了。 我也接受其他想法。
我想build立一个由6块英特尔SSD 320固态硬盘组成的RAID10arrays,但是为了提高它们的性能和持续时间,按照这个PDF过度configuration它们: http://cache-www.intel.com/cd/00/00/45/95/459555_459555.pdf 这是否就像创build容量小于驱动器总数的arrays一样简单? 我似乎无法find有关物理驱动器分区或选项的H700 BIOSconfiguration实用程序中的选项。 最终的问题是:如果我在6个300GB驱动器上创build一个600GB的RAID 10,其余的300GB是否会均匀分布在驱动器上,这个空间是否可用于320控制器作为备用区?
当我们构build分布式文件系统时,我正在做一些节点的基准testing。 由于文件将在许多节点上分布和复制,因此我们在节点上使用raid0。 然而,我得到了一些奇怪的性能数字,我很好奇,如果StackOverflow社区可以帮助找出原因。 我使用fio作为我的基准testing工具。 请注意,版本1.38不适合我,我需要使用版本1.59或1.60。 这是我的fioconfiguration文件: [global] directory=/mnt/gluster lockfile=readwrite ioengine=libaio iodepth=8 rw=randrw nrfiles=200 openfiles=30 runtime=900 [file] filesize=16-8k/8M-512M size=1GiB 对于使用软件raid的raid0,我得到了以下结果(剪辑的要领): read : io=285240KB, bw=324535 B/s, iops=79 , runt=900011msec write: io=283532KB, bw=322592 B/s, iops=78 , runt=900011msec 在raid1上使用软件raid,我得到了以下结果: read : io=683808KB, bw=778021 B/s, iops=189 , runt=900000msec write: io=488184KB, bw=628122 B/s, iops=153 , runt=795864msec 单磁盘性能仍然超过raid0的performance: read : io=546848KB, bw=622179 […]
我一直在向MS Windows Server 2008 Std上的RAID 5arrays的IBM ThinkServer添加4个额外的驱动器。 作为一个SQL服务器生活的生活。 第一个问题是“是否可以添加额外的驱动器到现有的RAID?” 第二个是“如果我设法增加驱动器,是否会混淆数据库? 提前致谢。
我有2个ARECA 8040 HW-RAID,每个8个SSD。 一个是配备Intel 520 SSD的RAID10,另一个是配备Samsung 840 SSD的RAID5。 两者都通过一个共享的LSI Logic / Symbios Logic SAS2008 PCI-Express Fusion-MPT SAS-2卡连接到服务器。 我正在读取/写入/删除RAID。 从我的愚蠢测量我相信,TRIM命令或安全擦除必须发出恢复原来的性能。 HW-RAID不接受也不将命令传递给SSD: fstrim -v /media/ssdraid1/ fstrim -v /media/ssdraid2/ 都失败,因为不受支持。 我看到的KISS解决scheme是:将所有数据移动到其他磁盘。 卸载RAID卷。 关掉它。 取出所有SSD并直接连接到SATA。 发出TRIM(首选)或SECURE ERASE(如果不支持修剪)命令。 把所有的固态硬盘放回到RAID中,然后把所有的数据放回去。 我不喜欢KISS解决scheme,我必须将所有的数据closures,并在RAID上。 这将花费很长时间,我将需要可用磁盘空间。 可以做到这一点,而无需停止使用表空间在这些RAID上运行PG数据库。 但是我会在运行系统上“触摸”一些。 我在“槟榔手册”中读到: 磁盘可以断开连接,取出或用另一个磁盘replace,而不会使系统脱机。 ARC-8040 RAID子系统重build将在后台自动处理。 当磁盘热插拔时,ARC-8040 RAID子系统可能不再是容错的。 在热插拔驱动器随后被更换并且重build操作完成之前,容错将会丢失。 所以..现在我有以下想法 : for (N = 1 to 8) { * […]
我有一个服务器在RAID1中运行两个SSD磁盘,两个驱动器在043从smartctl报告一个smartctl 。 233 Media_Wearout_Indicator 0x0032 043 043 000 Old_age Always – 0 两个月前,这是在44岁。我不知道如何解释这一点,如果我应该担心。 它会现实的罚款,直到它达到零或什么时候是一个很好的时间来取代?
我们正在构build一些新的服务器,并希望使用12Gbps SAS3驱动器以及连接到单个Supermicro SAS3背板的一些SATA 6Gbps企业级SSD背板,这些背板使用LSI SAS3扩展器和带有CacheCade Pro 2.0的LSI / Broadcom 9361-8i RAID控制器。 RAIDconfiguration如下 arrays1:2个SATA3 SSD RAID1 arrays2:2个SATA3固态硬盘RAID1 arrays3:6个SAS3硬盘RAID10 连接到arrays3的CacheCade Pro 2.0:2个SATA3固态硬盘 问题1: 12Gbps和6Gbps驱动器在相同的12gpbs扩展器和控制器上可以很好地工作而不影响性能? 问题2:我应该使用SATA3固态硬盘上的内插器来实现上述的RAIDconfiguration吗?