Articles of iscsi

需要更改iSCSI SAN的IP地址而不中断服务

我们正在进行networking重新devise,现在我们正在更改VMware ESX服务器使用的Equallogic iSCSI SAN的IP地址。 Equallogic有三个服务于iSCSI请求的活动以太网端口。 我正在寻找一个解决scheme,使我能够对iSCSI SAN上的接口进行重新编号,并重新configurationESX服务器以指向新的地址,而不会出现任何停机。 有没有人执行过这样的任务? 我甚至有可能问什么?

在本地ESXi数据存储中使用大于2 TB的未格式化的LUN

我即将创build一个非常大的Windows Server和客户端文件系统(NTFS),通过使用Openfiler作为iSCSI启动器。 [使用任何其他免费设备也将被视为] 作为虚拟机在我的VMware ESXi上部署的OpenFiler能否将未格式化的2 TB +数据存储作为RDM使用? [由于VMFS限制,无法识别或使用大于2 TB的数据存储] 我的情况是利用Dell Power Edge服务器上未使用的6x 500 GB SATAII磁盘,所有虚拟机都在我的SAN上。 任何types的帮助和build议将大于2 TB的未格式化LUN提交给Windows Server将不胜感激。 谢谢。

切换iSCSI的冗余

我即将在我们的networking上实施iSCSI解决scheme。 但困扰我的事情是,我们只使用1个从SAN到节点连接的交换机。 由于每个节点有2个网卡,任何人都可以给我一些提示,如何设置第二个交换机,并使用第二个网卡,如果第一个交换机死了,那么第二个交换机将接pipe? 也许在任何情况下,即使有故障转移解决scheme,由于所需的“切换”时间,仍然会发生数据丢失? O / S是Centos 5.5

我如何在Ubuntu上安装LIO“Linux iSCSI”?

我想在我的Ubuntu服务器上使用LIO iscsi-target软件来托pipe我的VMware机器的目标。 唯一的问题是,我似乎无法find任何types的指南或步骤来编译一个新的内核与所需的修改。 任何想法如何我可以去这个过程? 我确实发现了这一点,但它是为了CentOS,所以我在这个困境下不会为我工作,还是会这样?

是否有可能减lessequallogic数组中的存储池或存储池成员的大小?

我们inheritance了Dell Equallogic PS4000 SAN的责任,该SANconfiguration了单个默认池和使用全部8个磁盘的单个RAID 5成员。 现在已经增加了8个额外的硬盘驱动器,现有的成员已经吸收了新的硬盘驱动器,成员卡在RAID5(如logging)。 理想情况下,我想把所有的东西都设置为RAID50,但是我有一种感觉,如果不把所有的数据都转移到别的东西上,那么就没有办法做到这一点。 会员使用率为4.04TB(1.13TB保留,7.05TB免费)。 目前该成员包含3卷,每个包含两个(大约是三个)ESXi 4.1主机。 有没有办法缩小成员,以便在回收空间中创build新成员? 继上一个问题之后,我还会尝试通过Equallogic支持获得答案,并在这里回答他们的答案。

MPIO是否为单个连接汇总带宽?

考虑以下设置: Windows 2008 R2,MPIOfunction安装。 两个iSCSI NIC(未绑定),每个1Gb。 存储:Compellent,2个1Gb iSCSI端口,单个控制器。 在我的testing中,我确认使用Round Robin MPIO,主机上的两个iSCSI网卡在单人IOMETERtesting期间处于活动状态。 testing期间,存储上的两个iSCSI网卡也处于活动状态。 我在每个主机网卡上看到大约50%到60%的利用率,我期待更多。 目前我正在使用一个蹩脚的D-Link交换机,这当然没有帮助,所以我并没有太在意这个 。 我的问题是这样的:我想更一般地说,如果循环(主动/主动)MPIO允许我从主机到存储获得大于1Gb的带宽,而不是“如何使这个特定的设置执行” ,使用单个I / Ostream(如复制文件或运行单个工作者IOMETERtesting)。 如果是,为什么? 如果不是,为什么不呢?

添加原始存储 – iSCSI或VMDK?

我们在我们的文件服务器上使用了大约10TB的文件。 我将build立一个具有更多空间和更好备份的新服务器。 我们有一个包含24个驱动器的SAS盒,连接到OpenIndiana服务器,configuration为11个带有两个备用镜像的驱动器池。 将驱动器池作为iscsi目标直接提供给Windows文件服务器,并将其存储到exsi服务器并将其存储在vmdk磁盘中是否更好?

光纤通道(8 Gb)或iSCSI 10 Gb

我希望根据您在iSCI和光纤通道方面的经验来了解您对此的看法,我想我将继续使用iSCSI 10Gb,但想知道您对此有何看法: 我有2个存储服务器,其中一个有8 Gb光纤通道接口,另一个有10 GB以太网连接iSCSI。 现在,我将虚拟机存储在每台服务器(5台物理服务器)的本地磁盘上。 我想用它来存储我的虚拟机(使用vmware esxi),其中一个你认为更方便吗? 8 GB光纤通道或10 GB iSCSI? 我已经有10 GB的交换机,我们的一些服务器有10 GB的以太网nic,所以iSCSI选项在经济方面是方便的,但性能呢? 我应该购买光纤通道交换机和hba卡还是使用10 Gb iSCSI? 问候。

我必须在iSCSI目标上有LUN吗?

我正在使用Linux,并想知道如果我可以将LVM直接放在没有LUN的iSCSI目标上?

帮助build议的iSCSI SAN VMware实施

我们有四台(计划增加到四台)带6个网卡的戴尔服务器。 他们正在运行VMware ESXi 4.1。 我们希望通过HP ProCurve 1810G交换机将它们全部连接到Openfiler iSCSI SAN。 基于下面的devise,在服务器,交换机和OpenFiler上进行iSCSInetworkingconfiguration时,有什么我应该关注的,或者有什么不寻常的东西? 我应该在服务器上绑定连接还是简单地设置它们以进行故障转移? 主要目标是最大化IOPS。 提前致谢。