Articles of 突袭

我可以在非HP服务器上使用HP Smary Array SAS控制器卡吗?

可能重复: 个人电脑中的Proliant RAID控制器 在ebay上有一堆廉价的惠普智能arraysSAS控制器卡,我想知道他们是否会与非惠普服务器(主板)和驱动器。

Raid控制器/ Raidarrays的理论IOPS值

Gents,我们有一个数据库服务器(甲骨文),其RAIDarrays读密集… RAID控制器types: 04:00.0 RAID bus controller: Hewlett-Packard Company Smart Array G6 controllers (rev 01) 07:00.0 RAID bus controller: Hewlett-Packard Company Smart Array G6 controllers (rev 01) 以下是我们通过iostat看到的值: cciss/c1d0 4933.00 788848.00 7088.00 788848 7088 文件系统是ext3 …可以/我们希望从这个设置更高的性能? 任何具体的你会build议我检查/做? 谢谢!!!

链接FreeNAS盒子

我有两个不同的FreeNAS盒正在用于存储。 可以链接它们,链接连接可以作为客户端的单个存储目的地来呈现。 例如,我有一个有6TB存储的FreeNAS安装,另一个有4TB的存储。 我希望能够呈现或有一个映射驱动器的客户端,将能够跨越他们两个; 然而,客户只会将其视为一个驱动器。 这可能吗? 如果不是,我是否有另外一种方法来解决这个问题? 有没有一个不同的操作系统分布,这将更好地工作?

RAID:在RAID6arrays中有n + 1个磁盘足以匹配磁盘RAID5arrays的性能吗?

据我所知,RAID-6在写入方面比表弟RAID-5还要严重。 但是我们也知道,通过使用更多的主轴,我们可以从典型的RAIDarrays中获得更多的性能。 但还有多less? 典型的RAID5arrays总共有5到8个磁盘。 如果我们想用RAID6arrays来匹配相同的性能(更多的是IOPS而不是带宽,可用空间是不相关的),我们应该放入多less个磁盘? 多一个? 还有两个? 还有30%? 编辑:当然,我正在谈论使用同质磁盘(相同的容量和性能) 第二编辑:我正在谈论的规则,而不是具体的数字。 必须有一些关于这个粗略的数字…

磁盘arrays上运行Raid-Z1的可用空间?

我刚在Dell R510上安装了NexentaStor开源软件。 我用4个2TB磁盘创build了一个Raid-Z1。 没有configuration备用磁盘。 NexentaStor现在告诉我,Datasat有7,35TB的可用空间,由于n-1规则,我预计大约有5.5TB。 谁能告诉我为什么?

Equallogic分区:池,分配等

我有一些新的预算来购买Equallogic PS6110xv。 这个单位有24x600G磁盘,我正在寻找不同的方式来设置它。 这两个主要用途将是虚拟机和MySQL。 MySQL:目​​前在较旧的SAN上使用约2T。 预计3年的增长将是额外的2T。 好像我应该创build一个4T分区,并完成它。 虚拟机:我使用两台主机将大约十几台退休的虚拟机整合到虚拟机中。 这是我不完全清楚多less空间分配和如何。 我是否创build了一个具有所有预期空间的块,或者只是为基础创build空间,然后根据需要从SAN中安装额外的空间? IE为操作系统创build一个50克x 12的卷,然后用5-6T作为“池”创build一个卷? 我可以根据需要在这个卷上安装“瘦”卷。 最后:如果我使用RAID-6,将整个设备组合成一个RAID组有什么优势? 似乎有这么多的磁盘读取重build正在寻求麻烦。 另一方面,具有多个较小的组意味着较低效地使用媒体。 只是想知道传统的智慧是什么。 编辑:(在VM组中find这个职位): 不,您不能将一个arrays中的磁盘分成多个存储组或RAID级别。 以下是关于EqualLogic体系结构/术语的快速备忘单: 组 – 一组可以作为一个资源访问的物理arrays。 它们都在相同的IP上进行pipe理,并共享相同的iSCSI目标IP。 组成员 – 整个物理arrays。 整个(通常是16个主轴)arrays基本上是一个大的虚拟磁盘。 对于RAID-10,默认情况下,您有两个热备份,这意味着您有一个14主轴RAID-10arrays。 在配备15K 450GB SAS硬盘的PS6000XV上,RAID-10的可用空间达到了2.72TB。 存储池 – 从逻辑上划分组内成员和卷的方法。 但是,组成员和卷同时只能是一个存储池的一部分,这意味着您不能使用PS6000XV并将7个主轴专用于一个存储池,并将7个主轴专用于另一个存储池。 这个架构在表面上似乎有点不灵活,至less与传统arrays相比,您可以在单个机箱内创build尽可能多的RAID组。 请记住,EqualLogic对于两件事情真的很好 – 易于安装和扩展。 易于设置 – 对于大多数传统的iSCSI SAN,您有一个容纳一些磁盘和控制器的主机箱。 如果需要更多容量,则需要添加另一个机箱,通常意味着要closuresSAN,添加机箱,重新configurationarrays控制器,最后重新启动arrays。 使用EQL,只需将其插入,input组的networking信息和身份validation凭据,即可将其作为组成员在线,而不会停机。 向外扩展 – 同样,使用传统的iSCSI SAN添加机箱时,您的控制器负责的主轴数量实质上翻了一番(或三倍)。 有了EQL,在增加容量的同时,您还可以添加专用控制器。 市场营销人员会告诉你,当你增加容量时,这会导致吞吐量和延迟的线性扩展。 所以这意味着我将有一个24位成员的RAID-6组。 或23热备用…

无法创buildzpool,如何摆脱intel raid卷?

这是一台FreeBSD 9.1 amd64电脑。 它有5个磁盘安装。 ada0和ada1磁盘用于hw raid以提供根文件系统: root@gw:/home/gandalf # ls /dev | grep ada ada0 ada1 ada2 ada3 ada4 root@gw:/home/gandalf # zpool status pool: zroot state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM zroot ONLINE 0 0 0 raid/r0s1a ONLINE 0 0 0 errors: No known data errors 我想为其余的磁盘创build一个raidz池: root@gw:/home/gandalf # zpool create […]

MegaCli:什么时候一个驱动器失败?

使用MegaCli64 ,有没有办法找出硬盘何时失效? 即, /opt/MegaRAID/MegaCli/MegaCli64 -ShowSummary -aALL显示 Connector : Int.Ports 0-3<Internal><Encl Pos 1 >: Slot 5 Vendor Id : SEAGATE Product Id : ST31000640SS State : Failed Disk Type : SAS,Hard Disk Device Capacity : 930.390 GB Power State : Active 我想知道,因为当该磁盘处于Failed状态。

为什么我的RAID1或RAID10虚拟驱动器(6个固态硬盘)不比单个固态硬盘快得多?

我试图弄清楚为什么从12个固态硬盘构build的虚拟驱动器的性能并不比单个SSD驱动器快。 服务器是IBM x3650 M4,两个至强E5-2643v2 130W 6C 3,5GHz。 集成RAID控制器ServerRAID M5110e具有BBU和1GB闪存选项。 连接12个固态硬盘“IBM SSD S3500 240GB SATA 6,4cm MLC HS,6.0 GB / s”。 RAID1或RAID10虚拟驱动器是使用MegaRAID存储pipe理器创build的,具有以下属性:不提前读取,使用BBU写回,直接IO,128k条带大小。 我用ATTO Disk Benchmarktesting了性能,下面是64k读/写的结果(对于其他块大小的读/写性能也不能缩放): 2 drives in RAID1: Write 1969 MB/s Read 2458 MB/s 4 drives in RAID1: Write 1801 MB/s Read 2365 MB/s 6 drives in RAID1: Write 1614 MB/s Read 2381 MB/s 12 […]

尽piperaid安装,Ubuntu服务器在硬盘问题上变得没有反应

我在一个软件RAID 1中使用两个硬盘在Ubuntu 10.04.4 LTS(Linux xxxx 2.6.32-67-server#134-Ubuntu SMP Wed Sep 24 18:55:00 UTC 2014 x86_64 GNU / Linux)上运行服务器。 我反复有这样的问题,即系统在大量时间(> 1小时)内完全没有响应,从而有效地closures了服务器。 raid让麻烦的磁盘保存在arrays中,有时候会开始重build。 我有三个单独的机器(相同的设置)相同的问题。 有一个简单的方法来防止这种停机时间? 失败的磁盘本身并没有打扰我(他们都在不停地跑了几年),但是由此产生的停机时间却困扰着我。 我的印象是RAID 1即使在一个硬盘出现故障时也能保持系统正常运行。 如果RAID控制器只是从磁盘arrays中popup磁盘,系统就会继续工作,那就太好了。 更好的办法是,如果试图在后台解决问题,而不是冻结。 只要系统保持可操作性,一些性能下降也不是问题。 以下是来自这种事件的示例日志条目: Nov 14 14:00:10 xxxx kernel: [2137088.775542] ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0 Nov 14 14:00:10 xxxx kernel: [2137088.788591] ata2.00: irq_stat 0x40000001 Nov […]