我正在configuration一个新的networking,并且遇到了一些问题,我很难find关于使用VLAN分离核心networkingstream量和iSCSIstream量的最佳实践的良好答案。 核心networking的交换机是Cisco 24端口3560X做三层VLAN路由和三个3560x 48端口。 我有3-4台服务器,每台主机平均有7-10个虚拟机。 我用交通量过载了交换机吗? 我最好为SAN做完全专用的交换机吗?
我正在devise我们的IT基础架构的下一个发展。 我正在考虑实施iSCSI SAN。 我目前的计划是只将我们的服务器连接到SAN,然后使用其中一台服务器作为文件服务器,通过networking共享实现任何文件共享到桌面。 更多的阅读后,我想知道如果我有一个iSCSI SAN,我是否需要实现一个文件服务器。 这是我的问题: 如果我让SANstream量在整个networking上运行,而不是在iSCSI目标和服务器之间作为客户端,我会否损害SAN的性能? 如果我在iSCSI目标上创build一个“磁盘”,多个客户端可以访问同一个“磁盘”吗? 如果是这样,可以取代networking文件共享? 我意识到问题1是一个加载的问题,因为我没有详细说明我的networking的细节,但是我正在寻找关于朝这个方向前进的一般想法。 感谢您的深思熟虑的答案。
检查特定位置(例如,安装的iSCSI设备)的读/写性能的最简单方法是什么? 我怀疑我不能使用hdparm,因为这是较低的水平。 我对吗?
我有一个三重CentOS 6.4机器,我试图configuration使用iSCSI。 基本上两个不同的发起者在一台主机服务器上与两个不同的目标进行通话。 在一台机器上,“服务器”中,我在/etc/tgt/targets.conf定义了两个目标,每个目标指向一个不同的逻辑磁盘。 configuration节几乎是相同的,仅在其名称和initiator-address字段中变化。 这些是/etc/tgt/targets.conf中没有注释掉的行。 default-driver iscsi <target iqn.2013-08.com.example.group:backup> backing-store /dev/primary/backup initiator-address <ip address> incominguser username password </target> <target iqn.2013-08.com.example.group:migrations> backing-store /dev/primary/migrations initiator-address <ip address> incominguser username password </target> 当我运行tgt-admin -s我显示两个目标按预期。 但是,其中一个目标只显示1个LUN(0控制器),而另一个目标显示2个LUN(控制器和磁盘)。 我不知道这是否意义重大。 可悲的是,第一个目标(无盘磁盘LUN)可以通过它的发起者到达,而且机器可以安装这个空间,而且都是桃子和奶油。 第二个目标(w /磁盘LUN)不能由启动程序访问。 当我运行iscsiadm -m discovery -t sendtargets -p <ipaddr>我找回iscsiadm: No portals found 。 更糟糕的是,即使我第二个目标期望从另一个地址连接,或者删除了configuration的initiator-address部分,其他系统似乎也没有看到第二个目标。
我正在search特定的标准/事件,这些标准/事件将导致Windows 2008在磁盘pipe理中将SAN卷标记为脱机,即使它通过FC或iSCSI连接到SAN卷。 微软表示 :“如果dynamic磁盘损坏或间歇性不可用,dynamic磁盘可能会变成脱机状态。如果您尝试导入外部(dynamic)磁盘并导入失败,dynamic磁盘也可能变为脱机状态。只有dynamic磁盘显示丢失或脱机状态。“ 我特别想知道,如果在SAN上更改到磁盘的path(例如,通过不同的iSCSI目标IQN或不同的LUN#提供给主机的磁盘),将导致磁盘pipe理中的卷脱机。 谢谢! 编辑:我已经find两个原因为什么一个磁盘可能会脱机,磁盘签名冲突和SAN磁盘策略。 赏金将授予那些可以find有关数量path变化的进一步logging的原因的人。 磁盘签名冲突: http : //blogs.technet.com/b/markrussinovich/archive/2011/11/08/3463572.aspx SAN磁盘策略: http : //jeffwouters.nl/index.php/2011/06/disk -offline与-错误的磁盘-是脱机-因为对的一策略设置按一个pipe理员/
我有许多VM服务器通过Open-iSCSI从Dom0主机中挂载的iSCSI LUN中运行Xen虚拟机。 这只是一个简单的单path设置(通过集群存储和虚拟IP在目标端进行冗余) 我正在考虑使用iSCSI根目录的Open-iSCSI README中的设置,因为基本上它是这样的: 8.2 iSCSI settings for iSCSI root ——————————— When accessing the root parition directly through a iSCSI disk, the iSCSI timers should be set so that iSCSI layer has several chances to try to re-establish a session and so that commands are not quickly requeued to the SCSI layer. Basically you […]
我想知道,如何在iSCSI上使用存储来设置“传统”虚拟机,使用DRBD进行回退,使用Xen以“常规方式”安装节点,将其图像存储在iSCSI目标上等等,与云解决scheme相比, Ubuntu企业云? 研究云似乎并没有给我太多具体的信息。 我还有一大堆的不确定因素。 例如,Ubuntu企业云是否集成了冗余/回退存储和故障转移虚拟机节点? 可以像添加另一个存储节点一样简单地扩展存储吗? 让我这样问:现在Cloud的东西越来越stream行,用上述工具实现一个xen设置是不明智的? 旧的方式会很快被弃用吗?
对于使用iSCSI和多path设置SAN,我有点困惑。 我们正在将networking升级到10Gbit,所以有2个10Gbit交换机configuration了MLAG,用于正常的以太网通信。 LAG组是在NIC卡上制作的,所以只适用于以太网。 现在有一个2个控制器的SAN。 每个控制器容纳4个10Gbit网卡。 所以我最初的计划是使用每个控制器上的所有4个NIC来最大化吞吐量,因为有多个服务器连接到SAN。 服务器连接内部2个专用的10Gbit网卡用于SANstream量。 每个NIC都连接到其中一台交换机。 这些接口上没有LAG,它们在SANnetworking中configuration为静态地址。 SAN的2个控制器可以在同一个子网中吗? 所以有一个主要的SANnetworking。 或者我需要每个控制器的独立部分? 那么每个SAN控制器的4个网卡呢? 我只是在每个控制器的LACP组中捆绑2个NIC? 还是LAG根本不需要? 我有点困惑什么是合理的configuration。 将每个控制器的2个网卡连接到一台交换机上? 我将为每个NIC分配SANnetworking中的专用地址,并将所有8个地址用于多path? 那么,我不是一个可以看到的存储专家,… 🙂 因此,我对第一个问题进行了更新。假设我要使用每个SAN控制器的2个NIC(并非所有的4个都保持简单),使用两个不同的子网是有意义的。 似乎这增加了MPIO被有效利用的机会。 如果所有的NIC都在同一个子网上,则不能保证MPIO正在被使用。 我仍然在调查答案2。 我发现多篇文章描述了如上所述的设置,但仅使用每个SAN控制器的2个NIC。 我testing了一下,但是与所有的文章相矛盾,我没有得到1个单一的iSCSI目标,我得到两个(每个控制器一个)。 当使用两个目标configurationMPIO时,我的吞吐量从1800MB / s下降到30MB / s左右,… 开关:2 x Mellanox SX1012 存储:QSAN XS5200,每个控制器带有4个SFP + 10Gbit适配器 服务器:Supermicro 2028TP-HC1R-SIOM,4个SFP + Intel X710 当前的configuration如下所示:
嗨,我不是一个真正的networking人(我是一个开发人员)。 我正在玩弄在办公室里使用戴尔R710作为ESXI服务器进行testing和开发。 我们使用VirtualBox作为我们的本地开发环境,并试图通过Cat 6在ISCSI驱动器上保留虚拟机。他们的想法是从办公室的不同部分更容易地工作,并且比外部驱动器更容易pipe理。 我有一个Synology的ds216j,可以连接,但它有机械驱动器,所以我认为它会很慢。 所以我的问题是: 这是一个可行的想法 – 我读过一些人这样做似乎是可能的。 我错过了一个更明显的function(可能已经融入ESXI),我只是对Google不够了解? 干杯,克里斯。
我们inheritance了为其购买的戴尔和惠普设备的SAN / vmWare / iSCSI设置,但没有完全安装,我们需要一些额外的交换机才能使其工作。 但是,我们从供应商那里得到了不同的交换机之间相互连接所需的反馈。 这是我们相信我们想要结束的图表 – http://www.gthomson.us/san-vmware-project2.jpg 运行大约60台Windows虚拟机的ESXi 5.0环境将进一步增加更多。 在大多数情况下,该图的左侧2/3是安装的 – 用于ESXi和HP P4000左侧SAN的HP服务器。 但目前只有一台HP ProCurve 2810g交换机专用于1GB iSCSI。 我们希望在高端交换机上实现冗余。 我们也有一个Dell Equallogic PS6010E SAN和一对戴尔R900服务器。 Equallogic是10GB的iSCSI,并没有购买交换机投入使用。 我们希望有两个领域 – 一个拥有1GB iSCSI冗余交换机的领域,HP Lefthand SAN和HP服务器 – 一个拥有10GB iSCSI冗余交换机的领域,Dell Equallogic和Dell服务器 使用一个vCenter安装程序来pipe理和迁移两个(1GB和10GB)领域之间的系统。 当我们从一个迁移到另一个时,我们希望迁移主机和存储器(即,不需要1gb侧的主机,10gb侧的存储器,反之亦然)。 一个供应商告诉我们,这一切工作都不需要交换机。 另一个供应商告诉我们所有的交换机需要相互连接才能工作。 从我目前所了解的情况来看(我对这一切都非常陌生,因此该图帮助我了解所发生的事情以及所需的内容),在10gb方面,交换机需要相互连接,因为Equallogic需要它。 在1GB侧(图左侧),两个1GB交换机是否需要互连,用于HP Lefthand SAN端或其他原因? 我的直觉告诉我,这种相互连接是不需要的,因为左边的SAN确保所有的数据都被写入至less两个不同的物理设备,所以“链路冗余”实际上是以这种方式处理的,而不是相互链接交换机级别。 在交换机上,1gb侧和10gb侧是否需要相互连接?如果是这样,为什么? 那么这些相互连接如何完成 – 使用1gb上的上行链路端口转到10gb上的常规端口,每个10gb每个1gb? 我的理解是,vmotion(无论是主机迁移还是存储迁移)都将发生在vmotion NIC之间,而不是跨iSCSI链接。 如果是这样的话,为什么直接在1gb和10gb交换机之间的链接需要什么? 我们没有任何从1gb到10gb自动故障转移的目标,反之亦然。