我们使用3ware Inc 9650SE SATA-II RAID PCIe RAID控制器,带有电池供电的写入caching。 我们的备用硬件具有相同的控制器。 我在想; 这些控制器足够智能,不会在磁盘更换时同步caching吗? 例如,如果我通过放入另一台机器的磁盘来部署这些备用机器中的一台,并且该备用机器仍然有待处理的写入,那么是否足够智能,不会在replace的arrays上执行这些写入? 编辑:我的情况是不是很清楚,所以让我举个例子: 服务器1由于电源故障而closures。 我把磁盘放入server2并启动。 我修复server1 我把server2中的磁盘放回到server1中(现在这个不相关,实际上我可能会让server2继续运行)。 如果server1没有保护措施,它会写入数组,认为它只是再次通电,破坏它。
感谢这个问题,现在我的ESXi 5.0.0(Build 623860)运行/启动了一个物理放大的9650SE控制的RAID1arrays。 1TB驱动器已被2TB取代; 我想从逻辑上扩展数组,但没有安装tx_cli程序/脚本。 在哪里可以获得工具(ESXi 5.0.0 build 623860的tw_cli),以便从命令行或从vSphere客户端扩展数据存储区大小? 本文介绍如何使ESXi系统启动并运行RAID控制器,但是我假设已经完成了,因为…呃…我的系统正在运行RAID控制器。 我还应该提到,我认为我想要的文章, http://kb.lsi.com/KnowledgebaseArticle16655.aspx ,似乎是不可用的。 分区表的输出是: /dev/disks # partedUtil getptbl /vmfs/devices/disks/naa.600050e0f7f321007eb30000401b0000 gpt 121575 255 63 1953103872 1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B systemPartition 128 5 8224 520191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0 6 520224 1032191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0 7 1032224 1257471 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0 8 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0 2 […]
我有一个3Ware 9650SE 8端口控制器的服务器。 我有一个8驱动器RAID 5arrays与热备份驱动器的大小为3.87 TBarrays的一部分。 当我今天login服务器时,发现我现在有两个arrays – 一个arrays,所有的驱动器都可以,但热备份不再是成员,而第二个arrays只有arrays中的主机备用(相同的大小)只有热备份标记为良好,所有其他驱动器(在另一个arrays中都是OK成员)标记为降级。 我有一个备份,但不确定,如果它的损坏。 有什么build议导致这种情况发生。 接下来做什么? 我应该删除第二个数组,并将驱动器合并到function数组中?
我有硬盘突袭了12个磁盘中的5个,其中2个死了,数据无法访问了。 我被告知,即使2个磁盘死亡,一些数据可能是可以恢复的。 我的托pipe服务提供商用新的replace了坏的磁盘(在开始时他们用新的replace了正在运行的磁盘,但现在全部到位)。 我正在使用tw_cli,我想现在我需要“重build”到数组,但我害怕犯错误。 我没有find与tw_cli这种情况下的任何分步指南。 你可以请指教,现在应该做什么,以及tw_cli的确切命令是什么? #tw_cli /c0/u0 show Unit UnitType Status %Cmpl Port Stripe Size(GB) Blocks ———————————————————————– u0 RAID-5 INOPERABLE – – 256K 20489 42968510464 u0-0 DISK DEGRADED – – – 1862.63 3906228224 u0-1 DISK OK – p1 – 1862.63 3906228224 u0-2 DISK OK – p2 – 1862.63 3906228224 u0-3 DISK OK – p3 […]
我想把一些RAID控制器放在我们的Linux服务器上,对此我有几个要求: 良好的Linux支持。 不仅仅是磁盘驱动器,还有pipe理和查询工具,报告故障等。 跨模型兼容性。 当一台服务器死了,我想能够插入另一台服务器的磁盘,并启动它。 我已经被告知3Ware是一个不错的select,但3Ware已经被LSI收购了,而且我对于Linux的pipe理软件支持方面的经验并不好。
3ware 9650SE-2LP arrays是750GB卷,RAID 1.一个驱动器是750GB,另一个是1TB。 试图用1TB取代750GB的硬盘。 将数组重build为1TB的最大大小,还是arrays需要被打破,并重新从第一个驱动器? 我需要保留这些数据,以便一旦完成,我可以调整/ home ext3分区的大小以占用额外的空间。 谢谢
根据用户指南页面122中的表10,可以将单个磁盘迁移到Raid 1: http://www.3ware.com/support/UserDocs/3ware9650SE-UsrGuide.pdf 我试图find什么是最好的方法是将当前导出为JBOD的磁盘迁移到具有第二个驱动器的RAID-1镜像,而不会破坏原始(jbod导出)驱动器上的数据。 单元0磁盘包含我目前的操作系统。 我无法从3BM BIOSconfigurationpipe理器迁移磁盘,因为我没有看到该选项。 我需要访问3DM2或tw_cli发出迁移命令,但是你不能以jbod模式迁移磁盘,而且由于3dm2和tw_cli只有在系统启动时才可用,所以我处于catch-22状态。 任何帮助表示赞赏,我不想摧毁我的操作系统驱动器。 到目前为止,在将接口策略JBOD导出设置为yes时,操作系统通过3ware Raid控制器正常启动。 谢谢。 3DM2configuration显示在这里: http ://i.stack.imgur.com/D8yTi.jpg
我正在切换服务器中的磁盘驱动器,在3ware 9650SE控制器的5个磁盘上运行RAID 6,以获得更新的磁盘,并遇到问题。 两个第一个磁盘没问题,我拿出一个磁盘,并插入一个新的,让arrays重build和重复的磁盘2.当开机后切换3.磁盘我注意到两个wmissing,而不仅仅是一个,所以我做了不要求pipe制员重build,而是closures并调查。 剩下的一块磁盘的电源连接器坏了,于是我拿出那个磁盘放进刚刚拿出来的那个。 当再次引导原来是arrays一部分的磁盘的展台时,显示为#degraded“同步的两个磁盘都正常,las交换的磁盘是”spare“。有五分之二的设备退化,一个丢失,我不能为什么这两个磁盘被标记为降级,如果有的话,我能做些什么,让他们再次上网?根据SMART两个磁盘都可以… 请帮忙。
在之前的消息中,我询问了如何在4个磁盘的RAID 5arrays中重build故障磁盘。 我已经安装了一个新驱动器(驱动器4)来代替故障驱动器并开始重build。 在重build期间,另一个磁盘(驱动器2)开始抛出ECC错误和超时。 在95%的重build过程中,计算机重新启动并在启动屏幕上挂起,控制器(3ware 9500s)显示错误(找不到驱动器2)和来自故障驱动器(驱动器2)的典型噪声可能是听到。 我已经closures了电脑几次,没有改变。 然后我把电脑关了一个小时。 再次打开,他的时间失踪的驱动器(驱动器2)回到原位。 我可以等待重build的操作系统僵尸,从控制器自动启动。 在某个时刻,控制器开始发出重build错误并停止重build过程。 服务器现在运行的驱动器2出现错误,驱动器4的状态为OK,但由于重build过程无法完成而降级。 它看起来像我在一个死胡同里:至less有三个驱动器需要好好把事情做好,但是一个驱动器有错误,一个驱动器没有重build..我该怎么办?
我知道tw_cli可以将RAID5迁移到一个附加的额外磁盘上,但是直到机器重新启动后,容量才会增长。 那么是否有可能在没有停机的情况下增长RAID5arrays呢? 什么是支持这个RAID的控制器? (选一个) 操作系统是Linux。