我有一台运行3个虚拟服务器的ESXi 5主机。 其中1台服务器通过软件iSCSI在单独的硬件上使用数据存储。 当两个硬件服务器(存储和主机)遇到中断时,ESXi主机将首先启动,并且无法findiSCSI数据存储,这不会导致任何虚拟服务器启动。 如果我login到vSphere客户端并在两台服务器启动后重新扫描数据存储,则会find数据库。 然后我可以手动启动每个虚拟机。 发生停电时,我希望一切都能自动启动。 我错过了什么? 一如既往,感谢您的帮助。
是知道Xen Server是基于CentOS的,事实上CentOS可以完美地安装在ISCSI目标上,但是我想在ISCSI目标上安装Xen服务器,我找不到方法。 我已经尝试过最新版本的xen server 6.2,没有一个明显的方法来安装没有本地磁盘的人。 有没有人知道这个问题,或有人知道如何做到这一点? 请分享你关于这个问题的经验。
目标:让我的Linux VPS充当Windows的iSCSI磁盘 原因:pipe理Linux机箱上的存储空间并降低授权成本。 操作系统:Centos 6(目标) Windows Server 2012(发起者) 以前遵循指南: http : //www.server-world.info/en/note? os = CentOS_6&p= iscsi 现在在这一点上,我无法连接到iSCSI盒,我已经使我的.img文件5 GB 我觉得我缺less一个简单的步骤片段包括下面(识别信息已被删除的安全性) <target iqn.2014-08.actualdomainthatpings.com:target00> # provided devicce as a iSCSI target backing-store /iscsi_disks/disk01.img # iSCSI Initiator's IP address you allow to connect initiator-address 192.168.0.3 initiator-address 192.168.2.3 # authentication info ( set anyone you like for "username", "password" ) […]
我有一台运行SLES11 SP4的Linux服务器,它使用open-iscsi和多path连接到具有主动/被动故障转移function的Open-E DSS v7存储群集中提供的LUN。 Linux服务器db03在我们的iSCSInetworking中有它的接口bond0和IP 10.0.100.66/22 。 Open-E群集的每一端在iSCSInetworking中有两个IP:第一个节点为10.0.100.73和10.0.100.74 ,第二个节点为10.0.100.73和10.0.100.74 。 所以当没有发生故障转移时,发现如下所示: db03:~ # iscsiadm -m discovery -t sendtargets -p 10.0.100.71:3260 10.0.100.71:3260,1 opene.lun602 10.0.100.72:3260,1 opene.lun602 连接两个目标时,这是多path状态: db03:~ # multipath -ll opene.lun602 (2697a42a45d5dcbdb) dm-0 SCST_BIO,izcegeu6eeb2jaeJ size=500G features='0' hwhandler='0' wp=rw `-+- policy='round-robin 0' prio=1 status=active |- 7:0:0:0 sda 8:0 active ready running `- 8:0:0:0 sdb 8:16 active ready […]
我正在使用iscsiadm -m discovery -t sendtargets -p 10.1.1.100发现新的目标,然后iscsiadm –mode node –targetname iqn… –portal 10.1.1.100:3260 –op=delete删除任何目标我不需要。 我可以运行发现特定的目标名称,而不必删除所有其他不需要的目标? 这里也有一个类似的问题,但我不确定这是我需要做什么( 使用iscsiadm(open-iscsi)login到目标的单个LUN? )
我的客户的设置如下。 两台运行ESXi的戴尔Poweredge服务器,分布在三台虚拟机上。 SAS磁盘中每个空间都有大约2TB的空间,托pipe虚拟机。 这些通过千兆以太网连接到NAS,并使用ghettoVCB运行VM的夜间备份。 如果一台戴尔服务器发生故障,虚拟机将从NAS上的备份启动到另一台,最多丢失20小时的数据。 我的NAS是色卡司N5500,RAID5有4个1TB磁盘。 它可以configuration为使用iSCSI或NFS,XFS,ZFS或Ext3文件系统。 在网上看到,我在ESXi上看到了一些关于iSCSI的糟糕评论,有些人抱怨说性能糟糕,而其中一台虚拟机是terminal服务服务器,需要相当快。 iSCSI / vmfs是否比NFS更好,您将使用哪个文件系统作为后端? 有没有人有这个NAS的经验和任何configuration上的性能问题? 谢谢, 〜Dentrasi 编辑:ESXi从MB上的内部端口上的U盘运行。
我正在使用带有less量硬盘的RHEL服务器,而使用tgtd作为iscsi目标软件。 我寻找一种方式来分配和释放空间和目标的空间,而不重新启动我的系统,或伤害其他的LUN。 目前,我所有的硬盘都是单个VG中的PV,并根据需要创build/ lvremove,然后使用tgt脚本导出分配的LV: usr/sbin/tgtadm –lld iscsi –op new –mode target –tid=1 –targetname iqn.2001-04.com.lab.gss:300gb /usr/sbin/tgtadm –lld iscsi –op new –mode logicalunit –tid 1 –lun 1 -b /dev/mapper/iscsi_vg-iscsi_300Gb /usr/sbin/tgtadm –lld iscsi –op bind –mode target –tid 1 -I ALL /usr/sbin/tgtadm –lld iscsi –op new –mode target –tid=2 –targetname iqn.2001-04.com.lab.gss:200gb /usr/sbin/tgtadm –lld iscsi –op new –mode logicalunit […]
我正在考虑在同一个校园的两个地方放一个小集群。 每个位置的vSphere主机都有一个连接到生产局域网的vSwitch,我也将使用一个物理专用iSCSI LAN,两个位置之间都有专用的10Gbps光纤交换机。 如果iSCSI光纤出现故障,则两台主机都将启动并能够ping通另一台主机,但一台主机将无法看到iSCSI共享存储。 我找不到详细介绍如何在上述情况下configurationHA的指南。 提前致谢。
我正在维护Ubuntu上的无盘瘦客户机。 目前我们使用nbd / aufs解决scheme来引导瘦客户端进入linux,但是我有一个新的需求来支持Windows 7客户端,而且从一些networking研究来看,这似乎需要一个iscsi启动。 从我可以看到这将工作,但我需要为每个客户端不同的Windows 7映像。 我知道像Wyse和Citrix这样的产品可以使用共享映像,每个设备都拥有自己的“写入caching”来支持客户端写入。 有没有一个Linux的iscsi目标,支持类似这样的? 我已经看过tgt,IET和LIO,但是我不知道iscsi是否支持这个或者没有(我find了一个windows解决scheme(sanfly),这个解决scheme称为共享持久化模式,但不似乎是iscsi的标准术语)) 或者我应该看看像ocfs或gfs的群集文件系统?
我有一个在同一个networking上有多个接口和IP地址的服务器。 我希望非iSCSIstream量专门使用其中一个接口,而iSCSIstream量则专门使用其余的接口。 将iSCSIstream量限制为接口的一个子集很容易; 我只是不要在/ var / lib / iscsi / ifaces /中为我不想使用的接口创build条目。 但是,我不确定什么是一个好的方法来限制非ISCSIstream量到一个接口。 就linux而言,iSCSI和非iSCSI接口对于networking同样是好path。 这是一个示例configuration iSCSI存储的IP地址为172.16.50.70-78。 服务器有以下接口,地址和路由。 $ ip route list 149.76.12.0/24 dev eth0 proto kernel scope link src 149.76.12.4 172.16.0.0/16 dev eth1 proto kernel scope link src 172.16.50.80 172.16.0.0/16 dev eth2 proto kernel scope link src 172.16.50.81 172.16.0.0/16 dev eth3 proto kernel scope link […]