我必须将带有QLogic EP2532的IBM服务器连接到带有PMC PM8032的IBM DS3512 。 我需要两个8 Gb FC LX 1310 nm SFP +模块,而且由于它们似乎很难得到,所以我想可能需要两个10 GbE FC SFP +? 我知道有一个不同的编码,但是FCoE做的工作,还是有一些问题?
在我的DC中,pipe理员必须从ESXi5(从EMC VNX)拔出FC连接(临时,一些维护工作)。 我从来没有这样做过,对我自己的程序有一些怀疑。 我的第一个想法是closures所有的虚拟机(但只有less数通过FC使用存储安装),然后closuresESXi,然后pipe理员将他们的工作和重新启动后,我会打开我的ESXi和所有虚拟机(我不是这正确的想法)。 第二个计划是只closures通过FC使用安装存储的虚拟机,然后让pipe理员拔掉FC连接… 我不相信这两种方式。 那么从ESXi拔出光纤通道的正确程序是什么?
只是为了研究,哪个操作系统可以从盒子或某些第三方软件作为一个fc目标? 我只知道以下几点:Solaris(目前只有OpenSolaris + COMSTAR),Windows Storage Server。 以上只有两个可以吗?
所以,我正在玩几个直接连接在一起的QLogic QLA2340。 我在这里有select要么作为一个循环,或在点对点模式。 如果我只将两台机器连接在一起,有什么区别? 点对点更高效吗? 该固件可以select优先循环,然后回退到p2p。 任何人有任何想法,如果有性能优势或缺点? 很难find这些信息。 也就是说,我的借用光缆在其中一个通道上有一个突破,所以我实际上不能做真实的testing来找出哪个更好。 直到我find愿意从廉价电缆网站分stream的人。
所以这里是场景,我希望@ Chopper3可以在这里挂钟。 对于我们的SAN光纤networking,我们有一对Cisco MDS 9513 FC交换机,带有三个EMC框架和四个直接连接的Cisco UCS域。 我们看到的行为是由于结构互连传输FCoE暂停帧,结果刀片上的CNA正在发送FC中止。 思科TAC解释了这种行为是上行拥塞或延迟的结果。 在环境中,我们发现200个左右的ESXi服务器的数据中有相应的高峰,报告延迟峰值从100ms到2000ms。 有些框架和path看起来比其他框架和path难一些,这使我相信我们正在热点一个或多个链接。 刀片是B200M2,B200M3和B420M3服务器,使用。 M2系列使用M81KR的“Palo”适配器,M3系列使用VIC1240适配器。 由于我对FC的知识渊博程度不够,所以对于如何打倒这个问题我会很感激。
上下文 我有一个新的服务器与CentOS 7,通过光纤通道连接到磁盘arrays。 我想在服务器的文件系统上安装磁盘arrays的磁盘,然后在其上设置一个NFS服务器,使这个存储可用于群集中的所有节点(服务器和磁盘arrays都是一个小群集的一部分,pipe理)。 服务器:公牛R423 磁盘arrays: DDN S2A6620(DirectDatanetworking) 我只使用磁盘arrays的两个控制器之一。 以下是命令lspci输出的摘录: # lspci 85:00.0 Fibre Channel: Emulex Corporation Saturn-X: LightPulse Fibre Channel Host Adapter (rev 03) 85:00.1 Fibre Channel: Emulex Corporation Saturn-X: LightPulse Fibre Channel Host Adapter (rev 03) 所以我认为我的服务器能很好的检测到FC HBA(光纤通道主机总线适配器),它似乎来自于Emulex品牌。 磁盘arrays与红帽5&6服务器兼容,所以我不确定它是否可以与CentOS 7服务器一起工作,但我决定尝试一下。 我已经按照磁盘arrays的用户指南,我已经能够从服务器远程连接到它,并且我已经完成了所有必要的configuration(创build2个磁盘的RAID 1存储池,创build一个虚拟磁盘该池将磁盘呈现给服务器,使用LUN号将虚拟磁盘呈现给主机…)。 但是用户指南并没有提到服务器端的任何信息。 磁盘arraysconfiguration 有关如何在磁盘arrays一侧执行configuration的一些详细信息。 磁盘arrays操作系统是SFA OS v1.3.0.8。 我find的最近的手册是这个 (v1.4.0)。 基本上这是我遵循的步骤(对应于文档的第3.6.5节,以及以下): 清理磁盘arrays $ […]
我必须在下周购买一堆FC SAN交换机,我必须并且想要购买Cisco MDS。 服务器是C7000机箱中的HP BL490c G6,带有Virtual-Connect Flex-10以太网互连和VC FC互连(Emulex HBA btw),全部运行ESX 3.5U4(现在)。 我想我只有两个select。 MDS 9509的双监视器配有一个48端口4Gb FC卡 MDS 9222i具有单个监控器和内置的18-FC端口/ 4-GigE-FCIP端口选项 两者都具有相同的function(我认为,购买企业许可证顺便说一句),都有足够的性能和足够的端口,现在和未来三年。 9222i大约是9509的价格的55% – 逻辑上说,得到'我的,但我真的会想念双主pipe? 我有很多9509的双主pipe,我很高兴,但我不确定我是否已经从过去的双重优惠中受益,价格几乎是两倍 – 但是如果我不“买他们,想念他们,我不能稍后改造他们。 你怎么看?
有没有人在这里使用IBM XIV存储arrays? 你想分享你的经验到目前为止? 我们正在评估HP EVA和XIV,这是非常不同的(使用商用硬件,SATA驱动器,Linux设备类模块等)。 一切顺利,JFA
我正在试验运行CentOS Linux 5.4(x86_64)的戴尔服务器上的不同SCSI队列深度值的效果。 服务器有两个通过多path连接到存储系统的QLogic QLE2560 FC HBA。 存储系统已经为服务器分配了两个LUN,每个通过四条path以主动 – 主动 – 主动 – 主动轮询configuration连接。 总而言之,这两个LUN以8个/ dev / sdX设备的forms存在,由/ dev / mpath中的两个设备表示。 我目前正在调整/etc/modprobe.conf中的队列深度值,并通过查看/ proc / scsi / sg / devices的第七列来检查结果(重启后)。 有两个相关的问题: 有没有办法调整队列的深度,而无需重新启动或卸载qla2xxx内核模块? 例如,我可以在/ proc或/ sys- like文件中回应一个新的队列深度值来更新队列深度吗? 如果我将队列深度设置为128,那是 所有由qla2xxx模块处理的设备总共128个,或者 每个HBA 128个? (共256个),或者 八个/ dev / sdX设备中的每一个(1024通用)?或者128个 128个用于两个/ dev / mpath / …设备(总共256个)? 这对我来说很重要,以便我的服务器不会淹没存储系统,影响与其连接的其他服务器。
我现在一直在等待VMware支持一小时,我们打赌serverfault可以打败他们的答案! 我使用FibreChannel LUN存储在6个HP刀片上运行ESX 4.0和4.1。 我们在周末进行了一些FCnetworking维护,并将ESX主机所拥有的4条path中的2条移至存储arrays(EMC Clariion)。 发生这种情况时,所有6台ESX主机都closures了所有的虚拟机。 我在事件中看到了这样的消息: Path redundancy to storage device naa.600…. degraded. Path vmhba0:…. down. 2 remaining active paths Affected datastores: …. 这是预料之中的。 然后3分钟后: Guest OS shutdown for vm1 (这是由vpxuser) vm1 is powered off (用户“用户”) 如果还有好的path,为什么要这样做呢? 我看不到任何地方这样的设置。 谢谢!