Articles of 光纤通道

SAN新手:使用像iSCSI网关一样的服务器作为纯FC SAN设备

我对SAN很陌生,inheritance了一个老的EMC CX300。 CX300纯粹是FC,但我也想试用iSCSI,而不必购买昂贵的iSCSI网关设备。 我在想我可以做如下的事情: 通过FC将Win 2012服务器直接连接到CX300 安装Windows本地ISCSI目标软件 将LUN提供给服务器 将客户端通过ISCSI指向服务器以访问LUN 这是一个可以接受的生产解决scheme吗 我会像使用iSCSI网关一样使用服务器。 但我不想使用Window可怕的存储池\ RAID解决scheme我只想将客户端直接传递给服务器上的LUN。 我很抱歉,如果这个问题是愚蠢的,但正如我所说,我是非常新的SANs。 我实际上并没有在生产环境中部署这个function,但是如果像这样的设置存在或者在生产环境中是可以接受的,我们就会好奇的。

使用SAN光纤通道networking的TCP / IP,可能吗?

我想知道是否可以使用FC交换机(用于SAN)也用于TCP / IP通信。 我们有服务器(虚拟机),必须有一个快速的networking来复制大量的数据。 使用现有的FCnetworking比使用较慢的1 Gbnetworking更好。 这可能吗?

构build便宜的SAN

注意:您可能会问,为什么不使用便宜的硬件解决scheme。 该国的解决scheme并不便宜,对高端技术征收高达100%的import税。 使用现有的服务器获得一些新的组件比试图获得新的服务器要便宜得多。 注2:请原谅令人困惑的FC和iSCSI,从操作系统的angular度来看,他们是一样的。 所以任何解决scheme的作品 我打算用光纤通道构build一个“尽可能便宜”的SAN。 在这一点上,我不太关心房委会,但可能需要在路上做房委会。 这个想法是,我需要一个体面的iSCSI解决scheme来使VMWare vSphere运行虚拟机。 我一直在从本地存储运行vSphere,而一些应用程序(如SQL Server)在本地驱动器上运行得更好,而不是在VFS上运行。 我的想法是,我可以采取一个服务器,我alrady有一个FC HBA,然后运行一些软件,将允许我把驱动器作为iSCSI目标(有几个select那里)。 而且,如果我使用标准的SATA驱动器,甚至可能是SAS“近线”驱动器,我可以用很less的钱获得大量的存储空间,并且可以通过在RAID10中运行速度较慢的驱动器来获得运行在RAID5中的15K SAS驱动器,仍然省钱。 不过,我确实有几个问题,我希望有人可以回答,因为我不是FC大师: 1)如果我只是在两台服务器之间运行,是否需要FC交换机? 我可以使用任何两个FC HBA进行点对点吗? 还是HBA必须支持该模式的明确性? 2)如果HBA上有2个端口,我可以运行2条电缆,无缝地获得2倍性能(Teaming)? 还是必须将一些LUN分配给一个端口,另一个端口又分配给另一个端口? 3)处理SAN请求需要多lessCPU负载(显然取决于操作系统,但总的来说)? 我可以采取一个较低的规格服务器,并放入一个体面的SATA控制器的驱动器和一个FC HBA的空间,而不是真的担心CPU负载太多(假设没有别的)? 4)这是一个好主意吗? 5)千兆以太网多组合会更有意义吗? 我的意思是,我可以放入一对4或8端口的E1000,并在性能方面接近双端口2或4Gb FC吗?

COMSTAR和ZFS zvol提供突发的写入模式

我刚刚build立了一个小型的NAS / SAN盒子,并正在做一些testing。 configuration是: 2GB内存 两个Opteron 265s Iwill DK8N 5x500GB SATA驱动器(1个备用,剩余镜像)= 1TB可用空间 Emulex LPC10000DC NexentaCore 3.0.2 我testing的第一件事是COMSTAR在光纤通道上的性能。 我创build了一个700g的zvol,并将其暴露在COMSTAR上。 写caching已启用。 我的FC启动器是一个带有Q-Logic QLA2340卡的Windows 7盒子。 除了写入速度,一切都很好。 出于某种原因,我只能看到〜30MB / s,而使用IOMeter我可以达到90MB / s的读取速度。 做了一些狩猎,我跑了一个zpool iostat命令,看到以下模式: $ zpool iostat tank 1 tank 88.2G 840G 0 5.47K 0 43.4M tank 88.2G 840G 0 16.1K 0 128M tank 88.4G 840G 1 6.69K 8.93K […]

无法在XenCenter中修复SR

我已经在第四台主机中添加了我的Xen 6.2集群,并且无法成功连接到现有的存储库。 我正在使用3个较老的IBM主机,以及第四个新的CPU掩码,以便成功join池。 我有两个光纤交换机,思科,它们的path设置正确,所有四个主机看到IBM SAN。 目前我在Xen Center中有3个可用的LUN,显示为连接到所有主机,但最新的服务器显示为“拔出”。 当我尝试通过GUI执行“修复”时,在PBD插入错误“Invalid Argument” 任何人有任何想法,我可以开始解决这个问题。 谢谢阅读。

FC-Multipath:哪个path_selector性能最好?

所以我了解到,自从Red Hat 6以来,我有可能在3种algorithm之间进行select,以便在我的FC-SAN的不同path之间进行负载平衡,默认的哑循环以及新的队列长度和服务时间。 我一直在寻找一个很长的时间来对多总线configuration中的path_selector的不同值进行性能比较,但是我无法根据实际经验find任何信息。 我什至没有find什么情况下performance更好的假设。 有没有人在这个问题上做过一些真正的性能testing? 或者关于我无法find的资源的信息?

删除了不会联机的群集磁盘,现在要格式化。 我可以恢复数据吗?

我inheritance了托pipe多个虚拟机和一些存储卷的故障转移群集。 它使用光纤通道SAN进行存储。 我最近更新了SAN控制器上的固件,当它恢复时,其中一个群集磁盘不会在群集pipe理器中恢复联机状态。 我删除了磁盘,并尝试修复失败后再次添加它。 现在,它希望我使用前格式化驱动器。 就SAN而言,一切都很好。 删除群集存储磁盘是否导致磁盘的所有格式化丢失? 我能以某种方式恢复吗? 使用Easeus程序build议,现在有新问题:Easeus检测到我丢失的音量,但它不能恢复它,因为它不会将其注册为丢失。 它认为分区是在那里,格式化和罚款。

光纤通道分区的最佳实践

我希望这会对更多的人有用,而不仅仅是我。 现在我已经有一个光纤通道交换机,一个NetApp文件pipe理器和一些运行Oracle的服务器。 所有的服务器都可以在文件pipe理器上看到相同的LUN,并且有一些内部的集群魔法可以防止他们碾压对方的磁盘。 交换机被分区,使得每个服务器都在它自己的区域中,并且可以看到它所在的磁盘。 因此,这样的事情: Zone1 = {Oracle1, NetApp1, NetApp2} Zone2 = {Oracle2, NetApp1, NetApp2} Zone3 = {Oracle3, NetApp1, NetApp2} (这些是基于WWN的软区域)。 我的问题是,这是做事的最佳方式,还是最好有一个共享资源的东西? Zone1 = {Oracle1, Oracle2, Oracle3, NetApp1, NetApp2} 在我看来,这些都是一样的,但也许有些我不知道的东西? 这样做似乎less了一点pipe理开销。 不是很多,但有一点。

FC和SAS DAS设备是否足够标准?

在问我的问题之前,这里有一些背景信息可能会或可能不会有用: 我第一次发现自己需要一个DAS解决scheme。 我的首要任务就是向一个方向传递数据。 我可以写大块,我不需要同时阅读。 服务器(数据生成设备)并不是一个典型的服务器,它是一个非常强大的单板计算机。 因此,我可以安装的附加卡的选项有限,因为它必须使用相当不常见的接口XMC。 目前我相信我是有限的PCIex8第一代,这意味着对我来说可能的瓶颈将是这个16Gbps的连接。 到目前为止,我发现的XMC主板提供了以下连接: a)双10GBE以太网控制器,总吞吐量20gbps b)双四路SAS 2.0连接器(SFF-8XXX)HBA(无raid),总吞吐量为48 gbps c)双FC 8gb HBA(无raid),总吞吐量16gbps 我给你们的问题是: 1)SAS和/或FC以及HBA的扩展是否足够标准,以便我可以购买具有外部SAS或FC端口的RAID控制器的Dell或Aberdeen存储服务器,并且希望能够将其连接到我的SAS或FC HBA,将呈现一个单一的卷(如果我这样configuration存储服务器),而不必检查HBA兼容性? 2)在像戴尔PowerVault(DAS或NAS)这样的设备上,是否有一个操作系统可以关注自己,还是要进行远程pipe理? 如果我无法远程pipe理它(如果我的单板计算机使用的是不受Dell OpenManage支持的操作系统),是否有本地接口? 几乎所有自称为DAS的设备都会这样吗? 3)如果我购买某种Supermicro存储机箱,安装了一个带有外部连接的RAID控制器,是否有一个不错的轻量级操作系统,我可以运行它来pipe理控制器? 我甚至会需要一个操作系统,因为RAID卡将被configuration预启动吗? 4)购买基于XMC的万兆以太网卡(通常是双端口)要容易得多。 在使用iSCSI作为DAS时,通过SFP +电缆直接布线会使我陷入什么困境? 提前致谢

各种Linux光纤通道多path选项的优点和缺点

在我们的Linux服务器上,我们目前使用HP的qla2xxx驱动程序,因为它内置了多path(主动/被动)。 但是,还有其他各种选项,如Red Hat的device-mapper-multipath和stock qla2xxx驱动程序(多总线和故障转移)以及SecurePath和PowerPath(两者都可以实现中继,iirc)等。 有人可以告诉我各种scheme的优点和缺点吗(如果我可以问这个问题),除了{安全,电源}path选项费用巨大的显而易见的事实? 我主要感兴趣的是免费提供的选项,比如HP的qla2xxx与Red Hat的multipathd以及其他可能的开放源代码解决scheme,但是我也想听听商业解决scheme的充分理由。 更新 :我将在未来几天内对各种选项进行基准testing(每个选项10个iozone运行的平均值(选项是本机qla2xxx故障恢复,原生qla2xxx多总线,HP qla2xxx故障恢复))。 对于那些感兴趣的人,我会在这里发布结果摘要。