作为Opteron处理器系列的testing,我购买了带有HP智能arraysP410i控制器的HP DL385 G7 6128 – 无内存。 机器有20GB的RAM 在RAID 1configuration中,2x146GB 15k rpm SAS + 2x250GB SATA2。 我运行Vmware ESXi 4.1。 问题: 即使只有一个虚拟机,试过Linux 2.6 / Windows Server 2008 / Windows 7,虚拟机感觉真的很慢。 在Windows 7中,vmware转换器安装甚至超时。 尝试SATA和SAS磁盘和SATA磁盘几乎不可用,而SAS磁盘感觉非常慢。 我在基础设施客户端看不到很多磁盘活动,但是我一直没有find原因,甚至没有尝试过诊断,因为我觉得这是因为廉价的RAID控制器 – 或者仅仅是因为缺乏记忆吧。 尽pipe存在这些问题,但是我仍然继续并安装了一个虚拟机,这个虚拟机提供了一个关键function,所以要把它closures并运行诊断并不容易。 非常想知道你们对此有何看法,是否更容易成为控制器/磁盘的问题,还是由于预算成分而导致性能低下? 提前致谢,
说明: 我们有一个服务器: 型号:HP ProLiant DL160 G6 4 x 240GB SSD(RAID-10) 72GB DDR3内存 2 x L5639 HP P410 RAID控制器(256MB,V6.40,Rom版本:8.40.41.00) SSD硬盘是4个全新的2.5“Intel 530,具有540MB / s的读取速度和490MB / s的写入速度 CentOS 6 文件系统是ext4 但这是raid 10的读取速度的testing结果: hdparm -t /dev/sda /dev/sda: Timing buffered disk reads: 824 MB in 3.00 seconds = 274.50 MB/sec [root@localhost ~]# hdparm -t /dev/mapper/vg_localhost-lv_root /dev/mapper/vg_localhost-lv_root: Timing buffered disk reads: […]
我打算在我的系统上使用ZFS(HP ML370 G5,Smart Array P400,8 SAS磁盘)。 我希望ZFS能够单独pipe理所有的磁盘,所以它可以利用更好的调度(即我想在ZFS中使用软件RAIDfunction)。 问题是,我找不到在RAID控制器上禁用RAIDfunction的方法。 现在,控制器将所有磁盘聚合成一个大的RAID-5卷。 所以ZFS不能看到单独的磁盘。 有什么办法来实现这个设置?
我们的SQL服务器负载变得相当重,所有的迹象表明磁盘通道是瓶颈。 目前的惠普服务器有一个相当低端的arrays卡,我们正在寻求扩大这个服务器与智能arrays卡和外部存储arrays与SSD驱动器。 当前configuration是: DL360 G7 Smart Array P410i Windows Server 2008R2 32GB内存 目前arrays是2个300Gb SAS RAID1逻辑驱动器用于启动/操作系统,1个120Gb SATA SSD驱动器用于数据。 数据库服务器托pipe一个相当大的数据库(〜100Gb),包含实时数据和历史数据。 出于许多原因,拆分数据库不是一种select,所以目前的想法是在新arrays上有多个逻辑驱动器,每个逻辑驱动器都在自己的通道上,然后将数据库拆分为逻辑SQL分区。 例如,数组可能有: 2个SSD(RAID1) 2个SSD(RAID1) 4个SSD(RAID1 + 0) 目前,我们正在寻找像高端智能arrays卡的D2600 。 为了获得最大的性能,我们确实需要每个逻辑驱动器尽可能快地运行。 惠普的规格表明他们的顶级SSD可能会接近最大化Smart Array卡支持的6Gb连接。 不过,一些较大的SA卡表明他们支持“多种渠道”; 我不清楚这是怎么工作的。 这是否意味着,从SA到D2600的单一电缆,每个RAID组可以configuration得到它自己的6Gb频道? 或者6Gb是互连的限制,如果有的话,是否有configuration选项(甚至不同的惠普产品 – 不是试图绕过“无主观问题”的规则,诚实:)),将克服这个限制? 编辑:我不能看到任何惠普服务器将这样做,但如果有一个像样的Proliant框,将允许我拆分内部驱动器笼成两个(或更多)通道,这可能是一个“计划B” – 有谁知道这样的服务器?
在rax 1 + 0和6个磁盘之上的LVM之上使用XFS的DL380p gen8服务器上,与RHEL 5相比,相同的工作负载导致RHEL 6的磁盘写入增加了十倍,导致应用程序无法使用。 请注意,我并不是在尽可能多地优化co6系统,而是在了解co6为什么如此不同以及如何解决这个问题。 的vmstat / iostat的 我们有一个MySQL复制设置,使用MySQL 5.5。 使用RHEL 6作为操作系统的gen8服务器上的Mysql从服务器执行得不好,使用vmstat和iostat进行检查显示,这些服务器执行了页面输出活动的十倍,以及写入磁盘子系统的十倍。 blktrace表明这些写操作不是由mysql启动的,而是由内核启动的。 Centos 5: [dkaarsemaker@co5 ~]$ vmstat 1 procs ———–memory———- —swap– —–io—- –system– —–cpu—— rb swpd free buff cache si so bi bo in cs us sy id wa st 3 0 12 252668 102684 10816864 0 0 8 124 0 […]
我想知道在HP(DL380p)Gen8服务器上是否有任何人使用Intel DC3700固态硬盘(或类似的) 我正在升级一组使用直连存储的数据库服务器。 通常,我们在我们的服务器configuration中使用惠普品牌的一切,除了几个SSD的桌面(所有这些桌面都完美无缺地工作)之外,我还没有使用固态硬盘 – 当然不是在服务器上。 我们正在升级的服务器在Windows上运行SQL Server(2005)。 我们正在迁移到SQL 2012.当前的机器在DL370 G6上托pipe一个200GB的数据库,并在RAID 1 + 0中configuration72GB 15K SFF驱动器,如下所示:OS(2主轴),tempdb(4主轴),t-日志(8主轴),数据(20锭)。 性能不是问题(CPU负载通常为20%/峰值30%,磁盘队列为典型值= 1)。 数据卷磁盘运行在P800外的MSA50中,因此可能有5K IOPS。 硬件已经接近4年了,所以是时候刷新了。 由各个硬盘报告的数据使用情况显示自从部署到数据卷后的写入量<100TB; 在事务日志卷上写入<10TB; 和tempdb上的〜1TB。 这是用例。 现在考虑一个新的,相同的磁盘子系统。 每台服务器将运行约15000美元(34x 15K硬盘@ 250美元+ 2个D2700机架+智能arraysP421用于外部存储)。 考虑一个类似的SSD部署,例如数据量为6x 200GB SSD,OS,tempdb和日志为2(100GB)。 也许矫枉过正,但使用英特尔直streamS3700所有与第二arrays卡带给我每台服务器大约5千美元。 另外,它可以安装在一个2U的盒子里(使用DL380p上的扩展笼),每年可以节省数百美元的电费。 随着SSD性能的提高,这甚至可能会覆盖一些琐碎的查询;-)。 等同的“无忧”HP SSD解决scheme将运行约10万美元。 两倍的价格与较less的保修,较低的耐力,但保证性能和可pipe理性。 当然,有大量的中间解决scheme可以工作。 我也非常了解供应商支持的解决scheme与第三方的权衡。 我没有的是整合这些特定产品的经验来帮助量化这些权衡。 我希望有人在那里,并愿意分享他的经验。 我想到的问题是: 在arraysP42x / P822卡上,S3700在Proliant环境中能够很好地发挥作用吗? 如果使用S3700,使用第三方卡是否有优势,比如LSI 9270-8i? 我已经概述了如何(很容易)用第三方解决scheme完成固件升级或pipe理警报? 如果大会有特殊的问题,你们是怎么解决的呢? 随着固态硬盘在存储领域引入的变化,存储解决scheme甚至比几年前简单得多。 我相信他们在未来几年会有很大的不同,我们期待着再等一个周期才能认真考虑在任何服务器应用中使用SSD。 在我走过这条路之前,有没有人会分享他们的相关经验? 请告诉我们为什么我们聪明,疯狂,或者介于两者之间。