我们目前在非域W2008服务器上运行Hyper-V服务器,并正在构build一个故障切换解决scheme。 由于所有(6-10)VM guest虚拟机都是linux,而我们的数据中心空间是非Windows的90%,所以我们从未感受到对AD域的需求等。 我最初的计划是运行Hyper-V服务器的第二个服务器(W2008R2或W2012标准)。 没有共享的存储/ SAN。 虚拟机是非常静态的 – 门户网站和networking服务器,数据库位于其他地方,远离虚拟机,所以我们可以合理轻松地应对从主虚拟机到辅助虚拟机的定期备份副本。 选项1就是上面的设置 – 如果VM服务器砰的一声,就把副本旋转起来。 选项2是实现故障转移群集,所以如果VM服务器closures,VM中继将接pipe 我真的很感谢在这方面的一些build议 – 我读得越多,我就越困惑。
我试图用HAproxy和mysqlbuild立一个基本的高可用性解决scheme。 目前看起来像这样 在host1发生故障的情况下, host2应该获得IP和stream量(使用我的VPS提供商的function称为故障转移IP,我不认为有可能让CARP在那里工作)。 我想在节点上运行监控软件。 这可以工作吗? 我担心,如果节点之间存在链接问题(裂脑情况),监视软件的每个实例都会假设另一个节点已经死亡,并尝试为自己获取浮动IP。 这并不可怕,但似乎变得更糟。 服务器和两台主机之间没有任何联系的思想,他们是唯一活着的数据库将迅速变得不一致。 有没有办法摆脱这种情况,不涉及第三台服务器? 我是否真的应该关心脑裂情况: 两台服务器位于同一提供商的两个数据中心(距离彼此仅3跳)。 似乎(traceroute)用于路由host1和host2之间的stream量的机器与用于路由来自互联网的stream量的机器相同。 所以,也许真正的写作(因为互联网是唯一的写作来源)的裂脑情况是不可能的?
在我们的备份过程中,似乎每天晚上,Exchange DAG都会故障转移。 是否可以更改容差设置以防止DAG在备份期间发生不必要的故障转移?
我有两个主机,我安装了XCP 1.6。 这些机器在Hetzner举办。 每个主机当前都有一个公共IP和一个额外的IP分配。 每台主机上都有一个guest用户,可以使用额外的failover-ip来访问这个guest用户。 “正常”的IP设置工作得很好。 我为访客configuration了IP,并将他们的eth0的MAC设置为Hetzner提供的虚拟MAC。 现在的问题是故障转移IP。 这个IP可以dynamic地在物理服务器之间重新路由并且将被路由到它们的物理IP。 据我了解,这意味着我必须将IP路由到访客虚拟机,使用主机作为网关(因为Hetzner希望stream量来自主机的MAC)。 在客户端,我添加了这样的故障转移IP: iface eth0:1 inet static address xx.xx.4.170 netmask 255.255.255.255 <= provided by Hetzner broadcast xx.xx.4.170 <= provided by Hetzner gateway xx.xx.10.214 <= IP of the host 使用这个接口从客人ping主机和其他系统似乎工作: ping -I eth0:1 xx.xx.10.214 PING xx.xx.10.214 (xx.xx.10.214) from xx.xx.10.242 eth0:1: 56(84) bytes of data. 64 bytes from xx.xx.10.214: […]
我是一个Unix新手,与Windows集群。 我有两台Windows 2012服务器,每台都安装有StorNext集群文件系统作为驱动器。 如果我尝试添加文件共享angular色,我不能这样做,因为我猜这个angular色不是为集群文件系统devise的,它是一个主动 – 被动types的集群。 我已经可以使用每个节点的常规IP从StorNext卷中共享文件共享。 但是,如果在群集上创build虚拟IP资源,则CIFS服务器不会与其绑定。 我无法通过CIFS连接到虚拟IP。 如何将CIFS服务器绑定到虚拟IP? 我无法从向导中添加它,因为存储不是“已批准”的。 谢谢。
我有一个奇怪的例子,其中2个glusterfs砖块中的1个将会脱机,并将所有的客户端坐骑都closures。 据我了解,这不应该发生。 它应该故障转移到仍然在线的砖块,但事实并非如此。 我怀疑这是由于configuration问题。 这里是对系统的描述: 2专用硬件上的gluster服务器(gfs0,gfs1) vms上的8个客户端服务器(client1,client2,client3,…,client8) 一半的客户端服务器使用gfs0作为主服务器,而另一半则指向gfs1。 每个客户端都使用/ etc / fstab中的以下条目进行装载: /etc/glusterfs/datavol.vol /data glusterfs defaults 0 0 这里是/etc/glusterfs/datavol.vol的内容: volume datavol-client-0 type protocol/client option transport-type tcp option remote-subvolume /data/datavol option remote-host gfs0 end-volume volume datavol-client-1 type protocol/client option transport-type tcp option remote-subvolume /data/datavol option remote-host gfs1 end-volume volume datavol-replicate-0 type cluster/replicate subvolumes datavol-client-0 datavol-client-1 end-volume […]
我们计划用Windows2012r2构build一个故障转移存储。 每台服务器上将会有2台或3台物理机器和2台虚拟机。 一台虚拟机构build故障转移,另一台虚拟机作为存储机器(每台物理服务器上的存储+故障转移机器)。 networking布局如下所示: 点击查看大图。 在存储计算机上,我打算创build将分配给故障转移机器(每个存储机器上一个磁盘)的存储池(分层和镜像)和iSCSI虚拟磁盘。 我已经用vmware(故障转移群集工作)在我的实验室中创build了这样的群集,但是我在这里发布,希望得到以下考虑的一些build议: 如果networking看起来像上面那样,戴尔强制pipe理每个物理服务器节点(2×10 Gb和4 x 1Gb)上的所有stream量和6个NICS,那么使用它们的最佳方式是什么? 甚至是设置一个合理的(我知道会有SPOFs)? 您将如何设置存储池并在稍后进行故障转移,在每个存储节点上镜像数据,以及如何影响性能? 这样的设置最适合的设置是什么(不会释放太多的可用空间)? 如果我在每个物理节点上有64个ram,那么哪个虚拟机应该有更多的内存。 存储或故障转移的一个实现良好的性能? 我会感谢来自做过类似事情的人的所有见解。 – > (请移动评论或答案,谢谢) 您确实可以在现有的共享存储上集群Microsoft iSCSI。 http://technet.microsoft.com/en-us/library/gg232632(v=ws.10).aspx http://techontip.wordpress.com/2011/05/03/microsoft-iscsi-target-cluster-building-walkthrough/ 你做什么你做一个configuration将死亡与群集的每个节点死亡。 因为目标图像彼此之间不同步。 …或绘制一个正确的互连图:) < – 回答上面: 实际上,我已经设法用连接到集群服务器的3个虚拟ISCSI磁盘创buildScale Out File Server(集群)。 我在池上创build了镜像虚拟磁盘(由虚拟iSCSI形成),并将其添加到群集中。 然后创buildSOFS。 然后,我切换了一个虚拟iSCSIclosures的服务器(closures电源) – 群集和共享正在工作。 群集报告一个磁盘丢失,但群集未处于脱机状态。 然后,我重新启动了存储并重新连接到群集。 – > 我终于明白你现在所做的了! 好的,问题是微软不支持群集存储空间内生产SAS之外的任何东西。 看到: http://blogs.msdn.com/b/clustering/archive/2012/06/02/10314262.aspx “集群存储池务必由串行连接SCSI(SAS)连接的物理磁盘组成,无论是直接连接还是通过存储结构连接,分层存储子系统的任何forms,无论是内部RAID卡还是外部RAID盒,都是不支持。” 艾丹早就做了,我们也做了。 看到: Creating A Virtual WS2012R2 SOFS […]
我在Windows Server 2012 R2上使用DB2 10.1企业服务器版 使用db2wolfi命令将DB2资源添加到集群之后 ,我转到集群属性中的资源选项卡,并find在用户定义的部分下添加的新资源。 但是,问题是显示名称显示为资源不可用 。 我需要知道为什么发生这种情况,以及如何解决这个问题,因为在将这个资源添加到我创build的angular色之前,我无法使其联机。
我在OVH中使用IP FailOver的XenServer出现了问题。 我做了什么是在这个官方教程http://help.ovh.co.uk/BridgeClient和IP不工作。 在我的虚拟机上是Debian 7 64bit 在此VM和configuration的networking上,我在XenCenter中为此networking设置了MAC地址 我的/ etc / network / interfaces(我现在隐藏我的IP): auto lo iface lo inet loopback allow-hotplug eth0 iface eth0 inet static address 94.XX.XXX.219 netmask 255.255.255.255 broadcast 94.XX.XXX.219 post-up route add 37.YYY.YYY.254 dev eth0 post-up route add default gw 37.YYY.YYY.254 post-down route del 37.YYY.YYY.254 dev eth0 post-down route del default gw 37.YYY.YYY.254 […]
Microsoft为安装群集FTP(在安装IIS,FTP服务和设置群集之后)提供以下命令: 设置将用于IIS共享configuration的文件共享。 在所有群集节点上configurationIIS共享configuration。 在所有群集节点上为IIS共享configurationconfiguration脱机文件。 configurationFTP站点并在一个群集节点上指定其内容的位置。 通过在故障转移群集中创build通用脚本,为您的FTP站点configuration高可用性。 但是,我想将IIS共享configuration信息存储在我用于FTP的计算机名称和存储上。 这意味着在开始第一步之前,必须首先使用ip,计算机名称和存储来configuration群集服务(configuration群集服务为步骤5)。 有没有人做过这个? 可能吗?