我尝试在CentOS 6.4上制作带有DRBD,Pacemaker,Open-iSCSI和LVM2的iSCSI Target。 现在我需要在crmshell上准备高可用性iSCSI目标configuration,但如果进入configuration模式,则会显示一条错误消息: [root@centos ~]# crm crm(live)# configure ERROR: running cibadmin -Q1: Could not establish cib_rw connection: Connection refused (111) Signon to CIB failed: Transport endpoint is not connected Init failed, could not perform requested operations 由于crm不包含在最新的pacemaker-cli软件包中,因此我在安装软件包crmsh.x86_64之前添加了此 OpenSUSE Repo。 cat / var / log / messages | grep corosync: corosync[1052]: [MAIN ] Compatibility mode […]
我们计划用Windows2012r2构build一个故障转移存储。 每台服务器上将会有2台或3台物理机器和2台虚拟机。 一台虚拟机构build故障转移,另一台虚拟机作为存储机器(每台物理服务器上的存储+故障转移机器)。 networking布局如下所示: 点击查看大图。 在存储计算机上,我打算创build将分配给故障转移机器(每个存储机器上一个磁盘)的存储池(分层和镜像)和iSCSI虚拟磁盘。 我已经用vmware(故障转移群集工作)在我的实验室中创build了这样的群集,但是我在这里发布,希望得到以下考虑的一些build议: 如果networking看起来像上面那样,戴尔强制pipe理每个物理服务器节点(2×10 Gb和4 x 1Gb)上的所有stream量和6个NICS,那么使用它们的最佳方式是什么? 甚至是设置一个合理的(我知道会有SPOFs)? 您将如何设置存储池并在稍后进行故障转移,在每个存储节点上镜像数据,以及如何影响性能? 这样的设置最适合的设置是什么(不会释放太多的可用空间)? 如果我在每个物理节点上有64个ram,那么哪个虚拟机应该有更多的内存。 存储或故障转移的一个实现良好的性能? 我会感谢来自做过类似事情的人的所有见解。 – > (请移动评论或答案,谢谢) 您确实可以在现有的共享存储上集群Microsoft iSCSI。 http://technet.microsoft.com/en-us/library/gg232632(v=ws.10).aspx http://techontip.wordpress.com/2011/05/03/microsoft-iscsi-target-cluster-building-walkthrough/ 你做什么你做一个configuration将死亡与群集的每个节点死亡。 因为目标图像彼此之间不同步。 …或绘制一个正确的互连图:) < – 回答上面: 实际上,我已经设法用连接到集群服务器的3个虚拟ISCSI磁盘创buildScale Out File Server(集群)。 我在池上创build了镜像虚拟磁盘(由虚拟iSCSI形成),并将其添加到群集中。 然后创buildSOFS。 然后,我切换了一个虚拟iSCSIclosures的服务器(closures电源) – 群集和共享正在工作。 群集报告一个磁盘丢失,但群集未处于脱机状态。 然后,我重新启动了存储并重新连接到群集。 – > 我终于明白你现在所做的了! 好的,问题是微软不支持群集存储空间内生产SAS之外的任何东西。 看到: http://blogs.msdn.com/b/clustering/archive/2012/06/02/10314262.aspx “集群存储池务必由串行连接SCSI(SAS)连接的物理磁盘组成,无论是直接连接还是通过存储结构连接,分层存储子系统的任何forms,无论是内部RAID卡还是外部RAID盒,都是不支持。” 艾丹早就做了,我们也做了。 看到: Creating A Virtual WS2012R2 SOFS […]
我用Synology RS812 +和一台安装了千兆网卡的旧HP140服务器构build了一个testing环境。 我已经致力于将networking专用于DHCP,并通过ISCI从服务器直接连接到NAS。 我正在使用esx 4.0作为pipe理程序,而且我注意到速度较慢,例如创build快照时,传输速率大约为20mb。同时,在查看NAS时读取/写入不稳定的情况下,会跳到10kb到10MB,并回落到10kb? 从那时起,我已经在Nics和Vswitch上启用了Jumbo帧,但仍然是同样的问题。 此外,我运行Vmware分析器,并testing不同的工作负载,显示不同的结果,基于应用程序,即交换器与sql.on最大iopstesting分析器达到95mb这是令人愉快的。 任何人都可以通过任何想法是什么导致问题请。 硬件:NAS:RS812 + 4 x 3 TB wd30efrx RAID:SHR 服务器:HPDL140 1Gb网卡
我在1U服务器上安装了esxi 5.1,使用vSphere访问。 在RAID1里面有两个160G硬盘。 我正在寻求扩大虚拟机的数量,所需的存储将超过这个微不足道的存储量。 我想增加驱动空间,但我想知道什么是最好的行动。 1U有两个固体XEON和大量的RAM,所以我想保持这个硬件资源。 如果我提供另一个满1TB硬盘的盒子,我可以作为外部数据存储访问它们吗? 这将是一个iSCSI的实施? 或者更好地获得2个更大的(2TB +)硬盘,并取而代之的是160GB的硬盘?
我知道iSCSI使用iqn / eui来标识目标LUN。 一旦我发现iSCSI目标并login,是否有一种方法可以从linux(RHEL / Centos)计算机上为远程目标确定LUN的NAA ID?
我正在寻找关于在我们的SAN上设置多主机I / O访问的build议: 我有一个包含Equallogic PS-M4110存储刀片的刀片机箱(PowerEdge1000e),其中一个RAID6卷目前格式为ext4。 这通过iSCSI连接到其他刀片(所有运行的Ubuntu服务器14.04)之一,并安装在那里作为一个标准的驱动器。 现在,我正尝试将机箱中的另一个刀片以允许多主机I / O的方式连接到SAN。 最好尽量避免使用NFS的明显解决scheme,因为我们使用的一些稍微有些可编码的工具在进行NFS的高I / O时有一个崩溃和烧毁的习惯。 这是特别有问题的,因为这些工具需要数周的时间才能运行,而且没有太多的机会检查点(你猜这是一个学术环境了吗?)。 然而,一切都与当前的iSCSI设置很好地发挥。 所以我倾向于一个集群感知或分布式文件系统+ iSCSI作为最好的select,但我担心裂脑问题等,因为我们只有一个节点。 1)上面的任何一个都是远程理智的吗? 2)你有什么build议使用哪个fs(最好是FOSS和linux兼容)?
我正在考虑部署iSNS服务器来简化为我的客户部署新的iSCSI基础架构。 我觉得我理解iSNS的function以及如何configuration,但是我想深入了解最佳实践的部署scheme,特别是: 在虚拟机上安装iSNS服务有什么意义吗? 理想情况下,我想将iSNS与其他服务配对,以节约资源。 什么是与iSNS相匹配的最佳服务? 我认为DNS(域控制器)不会坏,因为iSNS本质上是iSCSI的DNS。 部署多个iSNS服务器有价值吗? 任何有识之士将不胜感激。 我非常喜欢有iSNS基础设施的人员分享他们部署的经验。 谢谢!
我已经在我的Ubuntu 14.04服务器上安装了来自repo的targetcli。 我想弄清楚如何使服务监听任何(0.0.0.0)地址。 试图设置0.0.0.0具体给我一个错误: IP address does not exist: 0.0.0.0 有没有可能configurationtargetcli来侦听任何地址? 另外,它可以通过iptables来实现吗?
我已经在DRBD之上构build了一个带有OCFS的双节点存储设置,为几台ESXi服务器提供存储。 是否有可能在两个存储节点上设置iSCSI目标,并在服务器故障的情况下使其中一个节点接pipe另一个节点? 如果有其他类似的设置可以让我做到这一点,请让我知道。 Howto's非常受欢迎。
我试图用MTU = 9000的iSCSI连接我的桌面(运行debian 7)到QNAP NAS(运行QTS 4.1.1)。 networking基础架构由桌面和NAS之间的cat5e交叉电缆组成。 如果我将本地机器和iSCSI机器上的MTU设置为1500,4074或7418,则一切正常。 但是,如果我将MTU设置为9000,并发出与以前相同的mount命令,则它将作为只读文件系统挂载: mount /dev/sdc1 /mnt/iscsi 在发出该命令之后, mount -l的输出是: /dev/sdc1 on /mnt/iscsi type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) 但是,一旦我尝试写入文件系统,我收到一个错误的Read-only file system和mount -l的输出变成: /dev/sdc1 on /mnt/iscsi type ext4 (ro,relatime,user_xattr,barrier=1,data=ordered) 我已经尝试用-w和-o rw安装,但都没有任何影响。 有没有人有什么build议可能会导致这个? 我知道nas支持巨型帧,但它可能是NIC不支持它们? 有什么方法可以检查吗?