我有一个具有四个节点的集群Hyper-V环境和三个用于共享存储的PowerVault MD3xxx存储arrays。 服务器正在使用标准以太网连接的iSCSI结构(不是HBA)。 MPIO通过戴尔存储向导进行configuration。 我似乎遇到的问题是,在重新引导节点时,以太网连接似乎在iSCSI启动器准备好之前就被closures了 – 所以与其发生的任何LUN的连接都意外丢失。 有没有办法阻止这种closures会更优雅? 在将来,我将确保将要重新启动的节点首先将其拥有的任何存储转移到另一个节点,但是我想知道这是否应该自动发生。
w2k8 r2标准和iSCSI控制器有一些严重的问题。 我正在运行戴尔服务器,通过以太网连接到协同NAS,通过iSCSI处理LUN。 我使用MS iSCSI启动器来装载它,它的工作就像一个魅力,但我的LUN的写保护! 我已经设法检查ACL permisions,共享permisions,用户/组permisions等我也清除写入保护磁盘与diskpart使用ATTR DISK CLEAR READONLY(它被提及为常见问题) 从diskpart转储: DISKPART> attributes disk Current Read-only State : Yes Read-only : No Boot Disk : No Pagefile Disk : No Hibernation File Disk : No Crashdump Disk : No Clustered Disk : No 这个问题与synergy NAS上的所有内容有关。 我没有使用任何encryption/身份validation因为我的内联网没有连接到互联网。 如果它是重要的,它们全部是1,99TB。
目前我们正处在一个大型的VMware到Hyper-V的迁移当中。 这一过程的一部分将会把我们现有的一些ESXi服务器改为Hyper-V。 这些ESXi服务器没有安装硬盘驱动器,ESXi安装在1GB SD卡上。 当然,对于Windows来说这太小了,而将Hyper-V服务器安装到USB设备上似乎比它的价值更麻烦。 我相信你知道,Windows 2012现在可以作为一个iSCSI目标服务器。 它使用VHD作为其LUN。 从我可以从Microsoft文档中获得的信息,您可以创build一个“主”VHD,并从该主服务器创build多个差异虚拟硬盘驱动器,并将这些虚拟硬盘驱动器中的每一个附加为不同服务器使用的iSCSI虚拟磁盘。 所以我就这样做了。 我创build了一个主VHD,将它连接到Windows iSCSI目标,在其上安装了Windows 2012,将其系统化并将其与目标分离。 然后,我创build了三个差异VHD,并将这些差异VHD附加到iSCSI目标。 那些VHD被称为diff1 , diff2和diff3 。 我已经使用Diskpart创build这些VHD( create vdisk file=d:\iscsifiles\diff1.vhd parent=d:\iscsifiles\parent.vhd )。 然后我试图从每一个启动一个服务器。 使用diff1的服务器启动完美。 从diff2和diff3引导的diff2 bluescreened与一个inaccessible_boot_device diff2错误。 服务器完全相同(Dell PowerEdge M610s,Broadcom 10GBe nics,启用了iSCSI启动)。 diff2和diff3增长了大约6MB,根据文件的时间戳,主VHD没有改变,因为我sysprepped它。 那么我错过了什么?
我们有一个运行大量虚拟机的Windows Server 2012故障转移群集。 群集的存储由Windows Storage Server 2012实例提供,并通过iSCSI映射到节点。 另外,我使用DPM 2012 SP1来保护群集虚拟机 – 这些备份存储在与运行群集的服务器不同的服务器上。 快照提供程序configuration是根据http://blogs.technet.com/b/filecab/archive/2012/10/08/iscsi-target-storage-vds-vss-provider.aspx上的说明和指导进行设置的。 我们对Server 2008 R2进行了相同的设置,但是最近升级为利用Microsoft提供的硬件快照提供程序和性能改进。 由于为群集虚拟机configuration了保护组,因此组显示所有成员都处于理想状态,并且在群集事件日志中没有错误。 但是,在查看存储服务器上的iSCSI设备时,许多虚拟磁盘都显示为path,如“\?\ GLOBALROOT \ Device \ HarddiskVolumeShadowCopy {95EEC618-9594-11E3-93F9-00259067F05B} \ csv.vhd”。 每个虚拟磁盘都与一台服务器的备份对应,每台设备也都有一个设备pipe理器的条目。 在备份结束后,这些不应该作为文物留下,但由于某种原因,它们是。 运行“vssadmin列表阴影”时,也会列出许多阴影。 系统日志中没有显示出任何重要的信息,但每当运行新的备份时,都会将另一个磁盘添加到iSCSI磁盘列表中,并将另一个条目添加到vss阴影列表中。 这个问题被张贴到technet论坛,他们无法帮助。 微软的支持也没有帮助。 有没有人知道为什么快照显示为iSCSI虚拟磁盘,或者如何防止这种情况?
我试图build立我个人的圣杯:从iSCSI目标无盘启动我的Debian Wheezy KVM服务器,无盘服务器上唯一需要的configuration是NIC ROM中的iSCSI参数。 其余的configuration都应该在iSCSI LUN的“内部”。 系统有两个连接到支持LACP的交换机的NIC。 所以,我想通过绑定接口启动计算机,也就是在一个网桥vmbr0 。 虽然这个组合不完全正常工作。 因为我读过启动后不应中断iSCSI连接(例如通过重新configuration接口),所以我尝试在引导之前(在内核参数/ cmdline中)设置所有的IPconfiguration。 iSCSI引导部分由我的Broadcom双端口NIC的ROM处理。 这似乎很好地工作:grub被启动,然后开机继续。 在我的grubconfiguration中,我有这样的: linux /vmlinuz-2.6.32-26-pve root=UUID={iscsi-disk-uuid} ro quiet bond=bond0:eth0,eth1:mode=802.3ad,lacp_rate=1,miimon=100,xmit_hash_policy=layer2+3 bridge=vmbr0:bond0 ip=192.168.15.4::192.168.15.1:255.255.0.0::vmbr0:off 当grub启动内核时,我得到这些错误: ipconfig: vmbr0: SIOCGIFINDEX: No such device ipconfig: no devices to configure … repeated 10 times… /scripts/local-top/iscsi: .: line 426: can't open '/run/net-vmbr0.conf' 而我被放在initramfsshell中,在那里我发现bond0根本没有被configuration( bonding模块被加载)和vmbr0都没有( bridge模块显然是内置的)。 当我缩小范围时,通过排除绑定configuration,使用这个grub行: linux /vmlinuz-2.6.32-26-pve root=UUID={iscsi-disk-uuid} ro quiet […]
我在Ubuntu 10.04服务器上运行MySQL,MySQL $ datadir位于iSCSI卷上。 文件系统在/etc/fstab标记为“_netdev”。 在系统closures时,upstart会向MySQL发送一个SIGTERM,然后继续closuresnetworking接口,而无需等待MySQL退出或者iSCSI磁盘被卸载或断开连接。 这当然会导致XFS无法正常卸载,MySQL需要花费几分钟的时间在启动时重播InnoDB日志。 我不清楚在正确的地方开始戳这个问题。 从我读到的,新贵应该已经足够聪明,等待iSCSI文件系统卸载和断开连接,然后closuresnetworking接口,虽然这没有发生。 我不知道如何告诉它,它也需要等待MySQL的干净closures。 这是控制台在关机过程中显示的内容: Broadcast message from root@mysql-a1 (unknown) at 11:19 … The system is going down for halt NOW! Power button pressed * Stopping Bacula File daemon… [ OK ] Stopping file integrity checker: samhain. * Running nssldap-update-ignoreusers… [ OK ] * Stopping multipath daemon multipathd [ […]
具有两个DRBD主节点的iSCSI如果两条path并发写入请求,则使用不太合适 。 但我正在考虑将此想法用作ESXi 5.5U2主机的后端存储。 我已经用主/辅助configuration和经典故障转移群集进行了testing。 ESXi在这一点上所做的是检测到一个多path,并且主动使用一条path。 所以在这个星座中,似乎并没有出现并发写IO问题。 现在,在这两种情况下(主要/次要或主要/主要)的问题是:如何closures具有到iSCSI客户端的活动打开连接的iSCSI服务器(iSCSI目标提供程序,采用iSCSI方式)? 我目前在目标服务器上使用CentOS 5。 CO5使用tgtd来提供目标。 令我惊讶的是,正常停止方法失败,如果有连接的客户端。 相反,在这种情况下,强制停止似乎是我需要的。 我想干净地closures一台服务器(我必须停止访问目标,所以我可以切换drbd到次要),然后另一台服务器应该自动变为活动(在这个星座恕我直言,没有什么要做的)。 在这方面的问题:以下是好的,还是我错过了什么? 强行停止tgtd(将首先脱机的目标) 将IP拆分为启动器的方向(与用于drbd复制的行不同) closuresdrbd(使其成为第二) 重启或关机服务器
我在FreeNAS 9.3和两台XenServer 6.5主机之间进行了一些iSCSI MPIO的实验。 我想使用iSCSI MPIO作为虚拟机存储。 相当普通的环境,但没有交换机来降低解决scheme的成本,并最小化交换机在iSCSInetworking上增加的开销。 架构如下:FreeNAS服务器上有10个千兆以太网接口,主板上有两个集成的英特尔主板和两个4x GigE组合卡。 我以如下方式在组合卡和两台XenServer主机之间创build/ 30链接: Connection to Host #1: igb0: 192.168.10.1/30 igb4: 192.168.11.1/30 Connection to Host #2: igb1: 192.168.20.1/30 igb5: 192.168.21.1/30 正如您所看到的那样,XenServer主机具有以下匹配的IP: 192.168.10.2/30 192.168.11.2/30 192.168.20.2/30 192.168.21.2/30 但是这个问题开始了。 使用这4个地址,我无法启动与Portal的iSCSI连接。 在IQN阶段searchLUN时失败。 如果我完全忘记了192.168.20.1,192.168.21.1 IP地址,我可以findLUN,但是由于192.168.10.0/30和192.168.11.0/30networking不可达,主机#2将没有iSCSInetworking。 他们是点对点的链接。 根据FreeNAS文档,我可以创build多个门户。 这似乎是一个解决scheme,但我试图做到这一点没有成功。 我不能在不同的门户上映射相同的LUN,所以不可能。 另一种解决scheme是在FreeNAS盒子的同一个子网上使用多个IP,但是我们知道这是TCPnetworking的破坏。 最后一项工作是使用非常特定的设置通过CLI创buildXenServer iSCSI SR。 但我无法亲自尝试。
嗨,我很新的服务器。 我有一台HP BL460c Gen9服务器,在传统模式下有650 FLB控制器。 我需要通过iSCSI将其连接到外部SAN。 我无法通过按“Ctrl + S”进入iSCSI BIOS设置进入NIC BIOS。 如何在服务器上configurationSAN地址,以便从SAN启动?
我的合作者正在从他所在的研究所分手,希望能帮助他把他的应用和数据从研究所的networking中移走。 当然事情正在迅速发展。 他在400 TB SAN上有12 TB的图像数据,通过iSCSI进行寻址。 应用程序服务器目前运行在一个单独的1U戴尔披萨盒中,现在运行在Windows Server 2003上(计划升级到2012年,当应用程序公司certificate他们的产品构build时),该应用程序正式只支持iSCSI; 尽pipe该公司的一位长期技术代表说他已经看到了它与NFS的合作。 他说他只需要运行一个SQL脚本来更新path。 这是我build议的工作stream程: 在带有5个6TB磁盘的Dell Precision T7400上,在FreeBSD 10.2上安装zpool( tank ),在两个镜像vdevs中的RAIDZ1或4个磁盘中。 我们称这台机器为bohr 使用指向卷的LUN( images和images images2 )设置iSCSI目标, 将bohr插入研究所的networking(他们很好) 作为发起人或通过SMB安装研究所的SAN 将数据复制到LUN 将应用程序服务器指向新的LUN Charles(应用程序公司的代表)运行他的SQL 拿bohr和应用程序服务器,并在新的网站设置它们。 我想到的唯一select是让应用程序服务器进行传输。 看来这样做可能会让事情变得缓慢,但是也可以避免我必须成立bohr作为发起人。 我的问题:我有道理吗? 这个计划听起来好像会起作用吗? 我是否错过了任何步骤? 是否有意义的同时设置bohr同时通过NFS提供相同的数据(用于为其他研究用途提供数据)还是应该为所有客户端要求iscsi访问?