Articles of iscsi

LAG或不LAG?

我有一个新的ex4200交换机堆栈,我的3个esxi hyper-visors通过vlan 200(这是EST)连接到SAN。 我已经加载了Equallogic多path插件。 当我将每台服务器的4根电缆专用插入交换机时,超级遮阳罩看起来应该是4条。 当我把两个端口和两个端口放在一起时,我只能得到两条path。 这是预期的行为,但有什么更好的? 使用交换机指定的2个2g链接或使用4个path,让插件做它的工作?

通过10G以太网,WinServer2016和Win10之间的iSCSI速度变慢

我已经在RAID0arrays上的Win Server 2016机器上build立了一个iSCSI共享,它的速度在680 / 670MBps左右。 问题是我有一个dynamic的vhdx文件在该arrays上,连接到一个客户端,当我试图读取或写入该驱动器,它达到了350MBps。 否则,当我通过10G连接直接从arrays中读取数据时,速度将达到520MBps,这是Win10客户端中SSD的最大速度。 我正在使用Mellanox ConnectX-2卡和10GBASE-LR收发器。 有巨型帧和其他一切启用,如果我不使用特定的iSCSI驱动器,我会得到更高的速度。 服务器复制时似乎并不困难,我的意思是它有一个8核Opteron和16GB内存,所以这应该是足够的。 有没有办法让速度更快,还是iSCSI的限制? 非常感谢!

如何最佳调整Dell PowerVault MD3600i SAN / Initiator以获得最佳性能?

最近戴尔PowerVault MD3600i的老板,我正在经历一些奇怪的结果。 我有一个专用的24x 10GbE交换机(PowerConnect 8024),安装到巨型帧9K。 MD3600有2个RAID控制器,每个有2个10GbE以太网NIC。 交换机上没有其他东西了。 一个VLAN用于SANstream量。 这是我的multipath.conf defaults { udev_dir /dev polling_interval 5 selector "round-robin 0" path_grouping_policy multibus getuid_callout "/sbin/scsi_id -g -u -s /block/%n" prio_callout none path_checker readsector0 rr_min_io 100 max_fds 8192 rr_weight priorities failback immediate no_path_retry fail user_friendly_names yes # prio rdac } blacklist { device { vendor "*" product "Universal Xport" […]

iSCSI上的ZFS

我打算使用ZFS和BSD构build文件服务器,并且希望通过iSCSI将存储在其他机器上的驱动器连接到同一机架上,从而使其更具可扩展性(例如,一台机器运行ZFS,另一台机器运行iSCSI可用于连接到ZFS框的目标并添加到zpools)。 寻找其他已经尝试过的人已经非常多地引导我关于在ZFS之上公开iSCSI共享的资源,但是没有任何相关的信息。 主要我有以下问题: 千兆以太网上的iSCSI是否足够快,或者我需要切换到10GbE以获得不错的性能? 当运行iSCSI目标的一台机器与networking断开连接时会发生什么? 有没有更好的方法来做到这一点,我只是不够聪明,已经意识到了? 容量方面,最初这将是大约10TB的数据(不考虑冗余),而在可预见的未来合理的目标将扩展到20TB,因此冗余,可能大约40-50TB的总存储量。 如果可能的话,我们也想保留所有使用GELIencryption的数据。 谢谢你的帮助。

VMware NAS / iSCSIbuild议 – 小型组织

我有两个VMware服务器 – ESX + ESXi。 两个备份NAS盒子。 目前的NAS设备成本较低,不适合运行虚拟机。 仅支持NFS。 慢。 我的计划是有一个专用的iSCSI / NAS来存储和运行虚拟机。 两个额外的低成本的备份框。 我正在寻找关于2件事情的build议: 对于较小的组织来说,就VMware架构/devise提出build议。 less于20个虚拟机。 2台服务器+ 2个1.5兆兆字节的备份NAS盒子。 一个好的NAS / iSCSI盒与您的RAIDconfigurationbuild议…我会去6或更好。 我试图devise一个既快速又可靠的冗余安装。 如果您有任何经验可以共享或者您当前的configuration包括networkingdevise(交换机,光纤等),我将非常感激。 我没有想到这个想法,所以如果你有一个devise不使用iSCSI NAS盒子…让呃撕裂。 成本? 我们可以留在$ 5,000左右(已经说明的组件之上)吗? 信息链接也欢迎。 谢谢阅读! Bubnoff *更新* 感谢所有的回应。 我开始这篇文章,更多地关注NAS / SAN问题,但是现在我开始认为我的主要问题是正确地build立我们的虚拟化networking……以及所有需要的设备。 在testing过程中,NFS速度慢可能是由于我们networking上存在的问题,而不是协议或设备问题。 我们今年有一个networking顾问,现在我有更多的弹药来帮助他们做正确的事情。 任何其他networking的例子,陷阱或build议是值得欢迎的。 再次感谢。

VMware – 如何最好地从一个iscsi卷中删除一个范围

在我们的开发/testing环境中,我运行了一个vSphere 5 ESXi服务器。 我有一个特定的VM进入一个恐慌的状态,因为它的虚拟磁盘之一被托pipe在空间不足的卷上。 这个特定的卷恰好在一个与之绑定的iSCSI设备上。 事实certificate,有一个没有使用的可用范围,我添加到卷中,这导致足够的空间来点亮虚拟机,并恢复服务。 无论如何,在恢复服务之后,通过查看空间不足的磁盘上的文件,我发现了一个巨大的废弃的.vmdk,它占用了大部分的磁盘空间。 我删除了被遗弃的.vmdk,现在在原始范围上有足够的空间来做我所需要的一切。 但是,在这个阶段,音量有两个范围,并且可以肯定的是,我之前停滞的vm上的.vmdk跨越了两个范围。 我确信,虽然虚拟机恢复服务,但它不可能是一个很好的解决scheme,因为两个范围都在同一个物理存储,我想象疯狂的磁盘颠簸,因为它在两个范围之间跳跃。 从iSCSI卷取消额外范围的最佳方法是什么?

ZFS over iSCSI高可用性解决scheme

我正在考虑基于ZFS / iSCSI的架构,用于运行在普通PC硬件的Wimpy节点上并运行FreeBSD 9的HA /横向扩展/无共享数据库平台。 它会起作用吗? 什么是可能的缺点? build筑 存储节点直接连接廉价的SATA / SAS驱动器。 每个磁盘都作为单独的iSCSI LUN导出。 请注意,此层不涉及RAID(硬件和软件),分区,卷pipe理或类似的东西。 每个物理磁盘只有一个LUN。 数据库节点运行ZFS。 ZFS镜像vdev是通过来自3个不同存储节点的iSCSI LUN创build的。 在vdev之上创build一个ZFS池,并在该文件系统内部依次备份数据库。 当磁盘或存储节点发生故障时,相应的ZFS vdev将继续以降级模式运行(但仍有2个镜像磁盘)。 将不同的(新)磁盘分配给vdev以replace发生故障的磁盘或存储节点。 ZFS重新同步发生。 一个失败的存储节点或磁盘总是被完全回收,如果它再次可用。 当数据库节点发生故障时,该节点预先使用的LUN是空闲的。 引导新的数据库节点,从失败的数据库节点剩下的LUN重新创buildZFS vdev /池。 出于高可用性原因,不需要数据库级复制。 可能的问题 如何检测vdev的降级? 每5秒检查一次? ZFS提供的任何通知机制? 是否有可能从现有的组成vdev的LUN重新创build一个新池? 任何陷阱?

您对SAN(iSCSI)使用什么?

我想知道大多数人使用的SAN解决scheme。 它可以从存储供应商(EMC CLARiiON,HP EVA,HP模块化智能arrays)或运行OpenFiler,NexentaStor,OpenSolaris存储,StarWind服务器等的定制系统预先configuration。 提前致谢。

当许多计算机通过iSCSI连接到某个卷时,Windows如何工作?

我们的系统pipe理员使用“Microsoft iSCSI Software Initiator Version”将我们所有的机器连接到相同的单个值,然后使用Computer Manager控制面板的Storage节点上的“Disk Management”将其映射为“Dynamic disk”。 我们已经被告知,我们都可以像文件共享一样读取和写入,但速度更快,需要更less的pipe理员来设置。 请有人可以向我解释如何locking文件等工程?

在virtualisaion中快速访问磁盘

我的组织将投资于使用KVM或VMware ESX的RedHat虚拟化。 我们的一些工作涉及磁盘密集的生物信息学的东西,比如BLAST,我们发现这些东西大多数是由磁盘瓶颈而不是CPU。 我对networking附加存储,SAN,iSCSI等方面知之甚less,但希望了解哪些存储技术值得关注。 在我看来,最快的解决scheme将是本地连接的固态存储,但是我们不能具有虚拟机迁移的优点来进行故障转移和负载平衡。 我们应该考虑什么存储解决scheme,约6-8千美元?