Articles of iscsi

双控制器SAN 8x1GBE或4x10GBE性能

我正在考虑让3个主机和一个为iSCSI设置iSCSI的SAN,并且有几家公司向我们提供了build议(小团队,需要实施方面的帮助)。 他们build议在DS3524的SAN上使用2个4端口1GBE iSCSI卡进行IBM设置,然后使用每个主机6个连接运行Cisco 2960S堆栈。 我走了一回,使用2x 2端口10GBE iSCSI控制器SAN(使用Cisco 2960S堆栈,每个端口2个10GBE端口,每个主机8个连接以提高性能)使用Dell 3620i的解决scheme(价格相同)。 它们无法与价格相匹配,并且build议由于SAN控制器上的通道较less(8x1GBE与4x10GBE),IOPS在此configuration中会更less。 他们是否在谈论垃圾,试图获得销售? 网上找不到,但想做出正确的决定。 如果需要,我可以发布此解决scheme的完整硬件规格。

如何select用于iSCSI的NIC?

我正在build立一个新的文件服务器,我需要将其连接到我的iSCSI SAN,我正在寻找一个好的网卡用于多path的专用iSCSI。 我应该寻找一个好的双NIC卡专用于iSCSI? 以下是我目前在我的列表中的内容: 调整MTU超出默认值 硬件卸载iSCSI标记的stream量 必须是GigE 有什么我应该避免的?

如何从Windows上的iSCSI详细信息中获取物理分区名称?

我有一个需要\Device\Harddisk2\Partition1风格的分区名称的软件,如WinObj中所示。 我想从分区底层的iSCSI连接的详细信息中获取这个分区名称。 麻烦的是,磁盘顺序不固定 – 取决于什么设备连接和按什么顺序初始化,它可以四处移动。 因此,假设我有门户名称(iSCSI目标的DNS),目标IQN等。我想以某种方式自动地发现系统中哪些卷与之相关。 我可以编写一些PowerShell WMI查询,它们有点接近所需的信息: PS> get-wmiobject -class Win32_DiskPartition NumberOfBlocks : 204800 BootPartition : True Name : Disk #0, Partition #0 PrimaryPartition : True Size : 104857600 Index : 0 … 从这里的Name ,我想我可以通过加1分区编号来制造相应的名称: \Device\Harddisk0\Partition1 – Partition0似乎是一个虚拟的分区映射到整个磁盘。 但是上面没有足够的信息来映射到底层的物理设备,除非我根据精确的尺寸匹配进行猜测。 我可以在SCSI设备上获得一些信息,但是这对于join东西没有帮助(iSCSI目标是Nexenta / Solaris COMSTAR): PS> get-wmiobject -class Win32_SCSIControllerDevice __GENUS : 2 __CLASS : Win32_SCSIControllerDevice … […]

iSCSI TGTD超过InfiniBand性能

我刚刚configuration了服务器到服务器的4x SDR InfiniBand链接,以增加虚拟机(特别是数据库服务器)的后端存储带宽。 我在CentOS 6上使用TGTD,当使用iperf进行testing时,使用IPoIB可以达到6.45Gbps。 我已经设法调整了iSCSI启动器和目标,以便我可以实现大约260MB / s的写入SSD。 然而,由于我可以在本地以500-600MB / s的速度写入,所以这仍然不是最佳的写入速度。 我目前使用的参数是: MaxRecvDataSegmentLength 4194304 MaxXmitDataSegmentLength 524288 MaxBurstLength 4194304 FirstBurstLength 262144 MaxOutstandingUnexpectedPDUs = 0 MaxOutstandingR2T = 1 MaxCommands = 256 QueueDepth = 128 有没有人有任何经验,在调整? 有没有可能比configuration更改得到任何更高的? 即使通过在两台设备上执行RAID 0,我仍然只能达到相同的带宽,而我预料会更高。

Xenserver,iSCSI和Dell MD3600i

我有一个有两个节点的functionxenserver 6.5池。 它是戴尔MD3600i SAN上的一个iscsi共享的支持,这工作正常。 这是在我的时间之前成立的。 我们已经增加了三个节点到池中。 但是,这三个新节点将不会连接到存储。 这是原始节点之一,工作正常: [root@node1 ~]# iscsiadm -m session tcp: [2] 10.19.3.11:3260,1 iqn.1984-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) tcp: [3] 10.19.3.14:3260,2 iqn.1984-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) tcp: [4] 10.19.3.12:3260,1 iqn.1984-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) tcp: [5] 10.19.3.13:3260,2 iqn.1984-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) 这是新节点之一。 注意地址中的腐败? [root@vnode3 ~]# iscsiadm -m session tcp: [1] []:-1,2 ▒A<g▒▒▒-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) tcp: [2] 10.19.3.12:3260,1 iqn.1984-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) tcp: [3] 10.19.3.11:3260,1 iqn.1984-05.com.dell:powervault.md3600i.6f01faf000eaf7f900000000531ae9bb (non-flash) […]

使用2台交换机,SAN和ESX设置冗余iSCSInetworking

在我的工作中,我正在重做iSCSInetworking。 我们目前有以下设备: 1个Dell PowerConnect 6224交换机 1个Dell PowerVault MD3000 SAN连接到2台提供iSCSI的Dell PowerEdge 1950服务器 1个Dell PowerVault MD3000i SAN 运行ESX 3.5的两台Dell PowerEdge 2950服务器即将成为ESX 4 – 拥有6个网卡 2个戴尔? 刚刚订购了2台ESX主机的服务器 – 有8个网卡 当前设置: 所有iSCSIstream量都在自己的交换机上,位于192.168.1.xnetworking中。 所有其他networkingstream量都在自己的networking交换机上,位于10.10.xxnetworking中。 我们有2个网卡(1个板载Broadcom网卡和1个Intel Pro 1000网卡)连接到每个处于活动/活动状态的ESX服务器,连接到专用于iSCSI的单个PC 6224交换机。 MD3000i背面的所有4个NIC端口都连接到相同的交换机。 这个设置的问题是交换机提供了一个大的单点故障。 我们正在尝试通过为iSCSI冗余设置一个2交换机networking来解决此问题。 我有两个新的PowerConnect 6224交换机,我们将用于这个新的networking。 我们用于iSCSIstream量的当前交换机将用于networkingLAN侧的冗余,或仅用作4个ESX服务器之间的vMotionnetworking。 (vMotion目前是2个ESX服务器之间的交叉连接 在与我们的虚拟机存储的MD3000i连接之前,我曾经与戴尔谈过几次试图想象这个新的networking设置。 我得出结论,最好是: 启用交换机上的stream量控制 – 目前未安装 在交换机上启用生成树portfast – 目前没有设置 在交换机,NIC和SAN上安装巨型帧 – 目前尚未安装 在两台交换机之间设置一个2端口的LAG 我不确定堆叠2个PowerConnect交换机是否最好。 由于事实上,如果主交换机失败堆栈将重新启动导致networking中断,而堆栈重新select一个新的主。 对我来说,这听起来像不会提供我们正在寻找的冗余/ […]

DAS vs SAN存储服务2到4个节点

我们目前有4个具有本地存储的Linux节点,安排在两个主动/被动对,使用DRBD镜像存储,运行虚拟机(实际上使用Xen Hypervisor)用于典型的托pipe工作负载(邮件,Web,几个VPS等)。 我们正在接近这些服务器的(假设的)最大IOPS,我们计划迁移到具有两个活动节点的外部存储解决scheme,最多可容纳四个活动节点。 由于我们是全戴尔商店,所以我做了一些调查,发现MD3200 / MD3200i产品应该是我们正在寻找的产品。 我们非常肯定,我们不会在一个存储上附加超过4台主机,我想知道是否有明显的优势。 理论上,我应该可以将4个SAS主机连接到单个MD3200(单个控制器MD3200上的单个链路,或每个主机到双控制器MD3200的双冗余SAS链路),或者将4个iSCSI主机连接到单个MD3200i在其4个千兆以太网端口上没有任何交换机,双控制器选项双重链接)。 因为所有主机可以同时访问所有的LUN,所以这两个设置都应该让我们实现实时虚拟机迁移,还有一些共享文件系统,比如GFS2或者OCFS2。 而且,这两个设置应该允许整个系统的完全冗余(假设存储器中有双控制器)。 我可以看到的一个区别是,DAS解决scheme实际上仅限于4个主机,而iSCSI应该能够增长到更多主机(将两个GigE交换机添加到混合中)。 iSCSI解决scheme的一点是,它可以让我们开始使用我们当前的节点,稍后再进行升级(我们无法添加其他SAS控制器,但是每个节点已经有4个GigE端口)。 使用正确的(iSCSI | SAS)控制器,我应该可以连接无盘节点,并从外部存储启动,我认为这是一件好事(摆脱任何本地存储)。 另一方面,我本来以为SAS的便宜,但它似乎是一个MD3200实际上比MD3200i(?)less一点的成本 ( 请注意:我已经在我的示例中使用了戴尔设备,因为这是我们正在寻找的,但我认为其他供应商也是如此 ) 我想知道我上面的假设是否正确,如果我错过了两个设置之间的重要区别。

ESXi 5x:每个path的IOPS数量发生了显着的改善

我有点尴尬,我从来没有见过或使用-iops参数作为esxcli选项的一部分。 我偶然发现了一篇文章,并且在使用各种块大小和读/写值之前和之后进行了基准testing,并且发现即将部署的v3700 SAN的性能不受欢迎,而不pipe磁盘configuration如何。 通过在堆叠交换机上使用Solarwinds免费的SNMP带宽监视器监视8个iSCSI接口的吞吐量(这是一种主动/主动devise),我看到每个接口从120兆Mbps(或12%的利用率)跳到了325兆Mbps(〜33%的利用率) 。 其中一些甚至被盯住,这导致我认为这个特定的端口有丢包(在IOMeter工作完成之前没有机会检查端口统计)。 那么这里的缺点是什么,除了过度饱和特定的path(链接)? 什么是人们正在使用的安全和快乐的设置? 似乎太好,是不对的。

10Gb iSCSI到1Gb服务器端口

我有这个设置。 Md3800i 4 10GBps Iscsi。 2个r730 4个1Gbps端口。 我将使用这个存储来备份和低调海量存储。 所以我不会把HBA放在服务器上。 看看存储的手册,我看到iscsi端口是标准的RJ45连接器。 所以我的问题是我可以使用标准cat6a utp电缆直接连接1Gbps服务器端口到端口的de 10Gbps iscsi,并使用vmware initiator来configuration1Gbpsnetworking? UPDATE interfases没有问题,我设法configurationISCSI没有问题。 感谢您的答案。

如何将两个Dell存储arrays连接到Dell Poweredge服务器(菊花链或直接连接)?

我与Dell Poweredge 1950服务器一起购买了两个Dell MD1000存储arrays,并需要帮助进行设置(我是SAN / iSCSI的完全新手)。 Poweredge服务器有两个SAS SFF-8470连接器。 两个存储arrays(每个都有一个* EMM)是通过菊链连接还是直接连接到Poweredge服务器? 另外,如何访问Dell OpenManage软件? 它是一个webgui,可以远程访问,还是需要从服务器本身进行访问? 由于我还在等待交付,所以我没有把它们打开。 * EMM:机柜pipe理模块