Articles of iscsi

转移angular色后,Microsoft iSCSI目标服务器2016故障转移群集在服务器pipe理器中不起作用

在运行文件服务器和iSCSI目标服务器angular色的故障转移群集中有一对Server 2016 VM。 以前,每个angular色都是在故障转移群集pipe理器中单独定义的,但由于需要iSCSI目标服务器能够将其虚拟磁盘存储在与文件服务器群集卷相同的存储上,所以iSCSI目标服务器服务/服务器名称/存储被转移到文件服务器angular色。 传输完成后,我无法通过服务器pipe理器应用程序添加新的iSCSI磁盘。 新的iSCSI虚拟磁盘向导表示没有可用的合格服务器。 iSCSI目标服务器本身继续运行,并允许启动器连接,我可以通过PowerShell添加iSCSI虚拟磁盘和目标,而不会出现问题。 通过PowerShell创build的新磁盘和目标确实显示在服务器pipe理器中。 如果我将iSCSI目标服务器服务/服务器名称/存储转移回iSCSI目标服务器angular色,则服务器pipe理器允许我添加新的iSCSI磁盘。 有谁知道什么(如果有的话)可以做,让我通过服务器pipe理器来pipe理iSCSI目标服务器? 我已经尝试将angular色转移到集群中的其他节点,并重新启动服务器pipe理器,以防万一有caching的数据,但它仍然不允许我添加新的iSCSI虚拟磁盘。

SAN供应商和Whitebox NAS性能

传统操作系统在存储系统的性能,可靠性和可维护性方面与传统操作系统相比,对专有硬件的定量堆叠(没有直觉)。 特别是与HP Lefthand,Dell Equallogic或婴儿EMC SAN等产品相比, Windows Storage Server,FreeNas等的优点/ 缺点以及运行真正的硬件RAID控制器的JBOD。 是否有比较WSS或软件平台与8/16/32主轴与同样配备的“真正的”SAN的基准? 还请根据小型安装(一个或两个机箱8 – 64驱动器套件)或大型安装(一个或两个驱动器64+主轴机架)对您的响应进行分类。 我假设有两个机架的驱动器系统,TCOpipe理成本超出了使用白盒节省的成本。

什么是人们已经成功使用iSCSI的共享磁盘文件系统?

设置看起来像这样。 目标是让多台计算机从iSCSI目标装入一个LUN。 理想的安装读/写和ACL支持。 这些服务器运行着GNU / Linux,所以最好是在vanilla内核中可用的文件系统。 虽然我可以在必要时处理编译第三方模块。 我目前正在研究GFS2和OCFS2 。 什么是一些成功的部署,人们已经这样做了? 任何疑难杂症我都应该留意

从作为iSCSI目标公开的ZFS池中恢复NTFS数据

这是我的愚蠢,数据并不重要,现在是一个学习经验第一,节省时间第二。 我通过napp-it中的裸骨指令设置了一个100GB的iSCSI目标。 这是一个卷LU。 然后,我的Windows 7计算机连接到iSCSI目标,将其格式化为NTFS,并使用一些大型的iso文件传输testing其性能。 然后我没有映射驱动器,重新连接到目标,并被迫再次格式化为NTFS。 那时我意识到我所传输的文件只存在于iSCSI目标上。 我投了一下,然后开始了我的生意。 当我清理我的实验时,我注意到在这个屏幕上: http : //imgur.com/1xlcu.jpg 这是我的实验目标坦克/ iSCSI,它仍然有很多数据。 假设我的isos仍然在这个池中,我将如何去恢复它们? 在写这篇文章时,我使用了www.runtime.org的GetDataBackup for NTFS。 而它发现两个以前的NTFS分区没有数据。

随着许多多虚拟机运行,带有iSCSI SAN的Esxi速度变慢

我有一个服务器与ESXi 5和iSCSI连接的networking存储(4x1Tb Raid-Z的freenas)。 这两台机器通过千兆以太网相互连接,两者之间有一个procurve交换机。 过了一段时间,如果我有很多(4-5或更多)vms运行,他们开始得到不响应(在发生任何事情之前的长时间延迟)。 我们试图找出背后的原因。 今天我们看了一下esxtop,发现那个iSCSI LUN的DAVG保持在70-80。 我读到+30是至关重要的! 什么可能导致那么高的响应时间?

SAN性能变慢

我有装有12 x 300GB DP SAS驱动器的iSCSI HP P2000。 这是连接到2个DL385服务器与运行XenServer的64GB内存。 SANnetworking通过2千兆交换机(从P2000到每台交换机的4条铜线链路,然后每台XenServer都有一条到每台交换机的铜线链路) 最近,我重新评估了安装时创build2个虚拟磁盘的决定:一个RAID-5和一个RAID-10。 我决定RAID-5是毫无意义的,并且把它毁掉,然后用这些磁盘把RAID-10扩展成一个大arrays,有2个热备份磁盘。 既然这样做了(一个多星期前),磁盘的性能一直非常糟糕。 在两个XenServer主机上都显示〜15%的I / O等待。 虚拟机内部的hdparm显示大约1.12MB/s的SAN读取。 还有另外两台Win2008R2机器连接到SAN。 我之前的性能testing显示它们也经历了显着的差异,所以我不认为这是XenServer主机上的问题。 先前的8k随机读取~24.75MB/s ,现在是1.67MB/s 先前64k随机读取~170MB/s ,现在3.61MB/s RAID扩展已完成,SMU中的所有内容均为“OK”。 XenServer非常“空虚”(其中一个是7个虚拟机,另一个是4个虚拟机),但它是一个生产环境。

当SAN运行超过其支持期限时,我会遇到什么麻烦?

我们正在更换Clariion CX320 SAN,因为它已经过时了(7.5岁)。 否则它是非常可靠的。 是的,我们已经更换了很多磁盘,电池模块,甚至可能是其中一个控制器,但是故障率并不是很高 – 可能每九个月大概一次。 新的SAN是具有类似性能特征(IOPS,networking等)的均衡逻辑。 即使这个技术真的没有什么新的变化(除非我们想要10gignetworking或者SSD磁盘,我想这样做却不能certificate花了两倍的代价)。 我认为大的变化可能就是价格点,当时我们为CX3支付了40k,而类似设置的价格也是这个价格的一半。 我想把CX3-20保留在生产中,但是我不得不提出一些情况,这个东西应该能够在没有高成本的情况下再活4-5年。 我们不得不从EMC以外的地方采购部件,因为这是非常耗时的(实际上这并不是坏事,因为第三方部件非常便宜,唯一的缺点是需要1-2天的时间才能获得部件,而不是同一天在几小时内)。 所以问题是:有没有人真的把这些东西运行了12年,并且像以前一样坚如磐石? 失败率应该是随着时间的推移,但我没有看到它发生。 我们有3个7岁以上的SAN。 我们在2-5岁时遇到了问题,但过去的2.5年并不糟糕。 也许在3 7+年以前的SAN中,我们已经replace了总共4个磁盘。 我知道,在与经销商/供应商交谈时,有很多人运行“很多这样的报废”SAN,但我永远不能和他们背后的人交谈。 他们是否经常头疼,但他们正在运行这个东西的橱柜,他们不能certificate升级的成本? 或者他们可能是托pipe公司,他们无法承受迁移虚拟机的停机时间……或者这些东西真的是稳定的,如果你维护它们,它们将永远持续下去,而“报废”只是EMC的推动方式我们买新的装备?

完整的高可用性系统

我正在configurationLAMP服务器的过程中,但要确保它将为未来的扩展做好准备。 这是我目前的设置 两台物理Windows服务器与Hyper-V集群 两个虚拟机,一个用于Apache,另一个用于MySQL 两个Synology ISCSI闪存configuration为RAID5,一个用于Apache,另一个用于MySQL 每个虚拟机都设置为使用其各自的iSCSI作为数据文件夹 (网站数据为Apache和数据库的数据为MySQL) 这是我想要做的.. 第二个Apache服务器configuration为故障切换(主动 – 被动) 第二台MySQL服务器configuration为故障转移(主动 – 被动) 这是我需要帮助的地方 我的想法是使用一个虚拟IP地址,这将分配给configuration为主的两个Apache服务器之一。 如果主服务器死了,我希望辅助从服务器声明这个虚拟IP,并作为主服务器,直到原来的主服务器重新联机。 因为数据存储在iSCSI中,所以我不必担心两个apache服务器之间的数据同步。 我不必担心“文件访问冲突”,因为只有一台服务器会一次访问服务器。 这个概念适用于MySQL服务器。 问题是,你认为这个设置对于现在和将来都是有好处的。 接下来的问题是..我应该使用什么主动 – 被动故障转移处理。 我正在研究ucarp,这似乎很容易使用。 你们有什么感想?

在iSCSI SAN上只有两个SFP端口中的一个可到达

我有一个服务器与HP NC523双10GbE网卡和HP MSA1040存储与双10GbE iSCSI控制器。 NC523上的两个端口都被configuration为一个绑定。 MSA上的端口具有不同的IP地址。 我想configuration这个系统使用20Gb的带宽(即债券在Linux服务器和多pathMSA)。 不应该使用开关,只是直接连接。 如果MSA的两个端口都连接了光纤电缆,则只有一个端口可以ping通(并且可能因此我无法初始化多path)。 我交叉检查了所有硬件组件,并且只要一条线路将服务器连接到MSA,所有这些组件都可以工作。 有人可以build议我解决这个问题吗? PS 我有另一个类似的服务器,带有“正常”四路1 GbE铜网卡和一个带有四路1GbE iSCSI控制器的旧式HP P2000存储。 类似的configuration在这里没有任何问题。 服务器上的四个接口绑定到单键,iSCSI存储的每个端口都可以ping通,也可以多path工作。 这两台机器都在使用CentOS 7。

与VMware,物理适配器和iSCSI联网

新的VMware用户在这里设置我的第一个环境。 我有一个具有四个物理NiC(NiC0,NiC1,NiC2,NiC3)的ESXi主机。 我已成功安装了ESXi,VCVA设备和多个虚拟机。 他们目前连接到本地存储,但我想连接到我们的iSCSI SAN。 物理上NiC0和NiC1连接到我们的常规networking交换机。 NiC2和NiC3连接到我们的iSCSInetworking,这是一个独立的networking。 因此,我所做的是将NiC0和NiC1设置为ESXi主机上pipe理networking的活动状态。 我没有选中NiC2和NiC3。 当我使用vSphere客户端创buildiSCSI连接时,无法看到NiC2或NiC3。 我是否需要使所有四个Nios能够在vSphere中使用它们? 如果我启用NiC2和NiC3,他们说他们断开连接,因为他们连接到我们的iSCSInetworking,并没有固定的networking连接。 我在这里跟踪?