Articles of 光纤通道

VMware ESXi – 光纤通道configuration

我试图通过Qlogic QLE8242 HBA将承诺vTrak e610f连接到在ESXi 5.5u1上运行的VM。 我想使用RDM连接到Ubuntu 12.04LTS虚拟机。 在ESXi服务器上安装QLogic驱动程序并重新启动后,会看到HBA,但没有设备或path。 ~ # esxcfg-scsidevs -a vmhba0 ahci link-n/a sata.vmhba0 (0:0:31.2) Intel Corporation Lynx Point AHCI Controller vmhba1 megaraid_sas link-n/a unknown.vmhba1 (0:6:0.0) LSI / Symbios Logic MegaRAID SAS GEN2 Controller vmhba2 qlnativefc link-n/a fc.2000000e1e34a933:2100000e1e34a933 (0:1:0.6) QLogic Corp 8200 Series 10GbE Converged Network Adapter (FCoE) vmhba3 qlnativefc link-n/a fc.2000000e1e34a937:2100000e1e34a937 (0:1:0.7) […]

ZFS,SAN的,HA,可能吗?

我目前工作的公司已经购买了许多不同的SAN解决scheme(无论什么时候都很便宜!),我想通过光纤通道build立HA ZFS文件存储。 基本上我从每一个sans中获得了切片,并把它们添加到这个盒子上的ZFS池(我称之为“ZFS代理”)。 然后,我从这个池中分离出LUN,并将其分配给其他服务器。 然后,我在每个LUN上进行快照,并在站点外进行DR复制。 这一切都很完美(ESXi的备份!) 但是,我希望能够a)扩大和b)使之成为HA。 关于为文件存储设置HA集群的所有文档都可以从两台服务器复制数据,然后从这些计算机上提供服务(我相信SAN需要照顾数据,不想复制任何东西 – 成本!) 。 基本上所有我想要的服务ZFS池的节点是HA(如果这是要投入生产,我们有大约128吨,并希望扩大到一个PB)。 我们有几个IBM SVC似乎处理HA节点设置在一些模糊的属性IBM的方式从逻辑上看似乎是可能的。 客户端一次只能通过一个“zfs代理”进行更改(多path设置仅用于故障转移),所以我不相信我需要OCFS设置? 如果我确实需要设置OCFS,我可以把ZFS放在上面吗? (想要快照/回滚和复制到非现场位置,以及精简configuration和重复数据删除的所有优点) 然而,当我将ZFS池导入到第二个盒子时,我收到了有关它被安装在别处的大警告,我需要强制导入,然后当导入LUN时,我看到GUUID不同,所以多path不会selectLUN的是一样的吗? 我可以通过smtfadm更改GUUID吗? 光纤通道有甚么可能呢? 有人能够指出我的一些文件? 我只是疯了吗? 任何投入将是最受欢迎的。 提前致谢,

如何设置Infiniband SRP目标?

我想设置一个服务器作为SCSI目标。 开源实现有多好? 什么是教程之一? 性能和可靠性如何? 操作系统有多依赖? 通常内置多less? 我在看CentOS RAID控制器和驱动程序有多重要? Infiniband卡和驱动程序有多重要? 有了多个RAID控制器,我可以看到来自一个Infiniband连接的所有LUN吗? 我也在考虑使用10 GbE的光纤通道或iSCSI。 比较(利弊build立)将是有见地的。

使用VMware数据存储区进行光纤通道分区

如果我有多个由vCenter控制的VMware ESXi服务器,它们共享FibreChannel上的数据存储区,那么对这些连接进行分区的最佳做法是什么? 我看到两个明显的方法来做到这一点: 为每个服务器创build一个区域,每个区域包含服务器和数据存储 创build一个包含所有服务器和数据存储的大区域 这个比那个好吗? 还是有另一种更有意义的方法? 如果存在多个数据存储区,那么这些更改如何?

在生产环境中添加第二个FC交换机到fabric的最佳实践?

我现在有一台Brocade Silkworm 200e交换机。 公司交换服务器和3个ESX 3.5主机通过它连接到clariion cx3arrays。 端口0,1是SPA0和1,端口4,5是SPB0和1。 我的计划是在200(它已经架设并通电)旁边添加一台Brocade Silkworm 300交换机,进入数据中心并将SPA1和SPB0拉出200,并将它们插入300交换机的端口。 我有点偏执于拔出正在生产的FCpath。 我有一个合乎逻辑的假设,事情将会故障转移到SPA0和SPB1,A1和B0不会错过。 不过,如果可能的话,我希望100%的理解我能做些什么来进一步降低风险。 如果一个LUN当前由SPA拥有,它是否会自动利用循环中的SPA0和SPA1,或者交换机是否独享特定的path,除非失败呢? 示例 – 是使用SPA0或SPA1的交换服务器,还是使用0和1主动/主动? 我猜测,如果它正在使用两个path到一个SP主动/主动扰乱其中一个风险较小,因为我确信它正在使用其他path已经没有麻烦。 我害怕强制故障转移到以前没有使用过的替代path,然后发现电缆是不可靠的。 我应该彻底颠覆公司,并closures所有虚拟机和交换服务器,以确保在发生错误的故障切换时不会发生数据损坏? 或者这是过度的? 无论哪种方式,我将在完整备份周期后立即执行操作。 如何监控故障转移? 锦缎200e是否会详细logging它? 我想最大限度的保证,当我拔出这些插头时,一切仍然正常。 我可以在esx主机上重新扫描存储,并观看交换机的电源path监视器。 还有什么我可以做的更好? 我宁愿比情况更为谨慎,而不是过于自信地假设当我们所有的鸡蛋都在这个篮子里时,第一次做这样的事情。

ESXi 5.5将以独立模式(免费)支持光纤通道SAN吗?

我在C7000机箱中安装了HP刀片,并通过光纤通道安装了新的3PAR StoreServ 7200。 今天我们使用DAS,并没有虚拟化我们的SQL服务器。 我的目标是:SQL Server 2008 – > WS2012R2 – > ESXi 5.5 – >刀片G8 – > C7000机箱 – > FC交换机 – > 3PAR StoreServ 7200。 硬件部分由HP / 3PAR支持。 我将直接使用由vSphere 5.5pipe理的ESXi 5.5独立版本。 我会这么做,因为我只想在该主机上安装一个虚拟机。 我们在不同的刀片服务器上使用vCenter作为虚拟机的其余部分,但是我们的SQL服务器是1台主机上的1个虚拟机,因此可以免费直接pipe理。 我只有一个问题:由于我没有购买vCenter许可证,因此将ESXi作为“免费”运行,我是否拥有与vCenter注册的ESXi主机相同的存储选项? 我希望在ESXi主机上的vSphere中查看FC / 3PAR存储,以便将其添加为存储。 请指教,因为我必须准备好所有的服务器,vmware,windows,SAN交换机等,并在3PAR技术人员来安装3PAR之前完成并运行。 他要求4个FC电线插入他的3PAR,其余的在我身上。 非常感谢你。

使用FC HBA的Hyper-V点对点连接

是否可以使用FC HBA连接点对点的两台Hyper-V服务器来复制数据,而无需连接到外部存储器?

重置/重用Linux设备信件?

有没有办法告诉操作系统,当我断开连接并且它可以重用这个字母时,/ dev / sdd真的没有了? 我通过光纤通道连接了RAID。 我已经设置好了,这样fstab会挂载它们,并希望在设备断开连接和重新连接时继续。 控制器将是相同的,磁盘/ RAID不会,所以我不相信UUID将工作。 该设备也将被重新格式化超出我的控制,所以标签装载也不起作用。 我试过这些命令,但没有运气: echo“1”> / sys / class / fc_host / host#/ issue_lip echo“ – / – ”> / sys / class / scsi_host / host#/ scan 操作系统:CentOS 5.5

HBA直接转换到DAE旁路SPE

是否可以使用基于主机的适配器(HBA)将服务器直接安装到仅具有光纤连接的Dell / EMC CX3-40f磁盘arrays存储模块(DAE),从而使存储处理器脱离等式? 会像Openfiler有这样的能力? 没有Openfiler可以做到吗? 注意确定如何为RAIDconfiguration驱动器,但即使直接访问驱动器也可能对OpenStack或类似的系统有用。 例如,使用两个双端口光纤通道(FC)卡的主机连接到四个SPE,从而使该主机可以访问60个驱动器(15 / SPE)。

如何检查当前的队列深度值?

我有一个通过光纤连接到NetApp SAN的OEL服务器。 如何在操作系统看到它时查看队列深度? 从lspci输出: 05:00.0 Fibre Channel: QLogic Corp. ISP2532-based 8Gb Fibre Channel to PCI Express HBA (rev 02) 05:00.1 Fibre Channel: QLogic Corp. ISP2532-based 8Gb Fibre Channel to PCI Express HBA (rev 02) 08:00.0 Fibre Channel: QLogic Corp. ISP2532-based 8Gb Fibre Channel to PCI Express HBA (rev 02) 08:00.1 Fibre Channel: QLogic Corp. ISP2532-based […]