每个数据中心都有一对CentOS Linux服务器。 他们在每个数据中心都有故障切换,由心跳和DRBDpipe理(我知道这些都是过时的工具,但是它们是稳定的,所以不需要改变它们)。 它们也具有数据中心交换的能力,使东部数据中心处于活动状态,而西部变为被动状态。 但这是一个手动工程过程,没关系。 西数据中心目前是主动数据中心,东数据中心是被动的。 serverA.west <-> serverB.west <———–> serverA.east <-> serverB.east ACTIVE DATA CENTER PASSIVE DATA CENTER 服务器可以运行mysqld和一个Java应用程序。 此服务器上的Java应用程序只应在活动数据中心(即serverA.west)的主要主机上运行。 如果Java应用程序的另一个实例在辅助主机(serverB.west)上启动,或者在被动数据中心的任一主机上启动,则存在裂脑问题的风险。 今天serverA.east重新启动,导致心跳翻转到serverB.east。 心跳然后忠实地启动了serverB.east上的Java应用程序,我们不希望发生这种情况。 Heartbeat也在serverB.east上启动了mysqld,这是正确的,因为MySQL复制应该继续下去,连续复制来自西部数据中心的变化,以便东部DC在需要时可以接pipe。 /etc/ha.d/haresources将mysqld和Java应用程序的/etc/init.d脚本命名为要启动的资源。 我们希望允许心跳来pipe理被动数据中心中的A / B对。 它应该在故障转移时启动mysqld,但不启动Java应用程序。 但是,如果东数据中心是活动的,那么在心跳自动故障转移期间,心跳应该启动Java应用程序。 什么是实施这个好方法? 我所希望的是,当我们将活动数据中心从西方切换到东方时,需要采取一个步骤进行configuration。 理想情况下,它应该是防错的,也就是说,应该确保只有一个数据中心被configuration为活动数据中心。
我们希望部署一个新的文件服务器集群,其中的一个存储在其上的文件服务器集群将是Server 2012 R2远程桌面用户configuration文件磁盘(UPD)。 我的问题是,将它们存储在标准文件服务器群集上,还是放在横向扩展文件服务器群集(SOFS)上是最佳实践。 我的理解是,SOFS是用于Hyper-V vmdk文件的,因为它们是不断打开的,这就是SOFS的意图。 它不适用于具有大量元数据更改的标准文件和文件夹。 由于用户configuration文件磁盘将是长时间打开的文件,而不是经常打开和closures的文件,我以为他们最好放在SOFS群集上。 希望有人能指出我在文件服务器集群上用户configuration文件磁盘的最佳实践方向,以及应该使用哪种types的磁盘。
我们的一个Web服务器集群提供了一个繁忙的电子商务应用程序的数量适中。 目前,每个站点都位于特定的Web服务器上,并且具有镜像到群集中另一个Web服务器的热备份副本。 如果服务器发生故障,则需要手动过程来重新激活故障切换服务器上的站点。 我们已经到了一个需要更好的解决scheme的地步,不仅仅是因为失败,而且也是为了让我们可以把机器停下来进行维护,而无需停机。 我们正在考虑build立一个2-3个HAProxy服务器集群(主要是因为它有一个很好的性能logging)放在Web服务器的前面。 从我读过的内容来看,它将满足我们对会话pipe理的大部分需求,并将用户保留在同一台服务器上等。我们最关心的是SSL证书。 每个站点都有自己的SSL证书。 由于最终用户将连接到HAProxy服务器,我只能假设我们需要将证书移动到HAProxy群集中的每台机器上。 由于HAProxy不直接处理SSL,我读过我们可以通过反向代理types转发安排在同一个系统上使用Apache + mod_ssl来完成这项工作。 那么,我的具体问题是HAProxy究竟是否适合这项工作? 现有的SSL证书(目前在Windows 2003 Server上,有几个是EV-SSL证书)是否可以移植到Apache? 是否还有其他软件或硬件解决scheme,我们应该考虑(使用HAProxy与SSL站点似乎比它需要更复杂)? 在设置高可用性SSL Web群集时我们可能没有考虑过其他任何警告?
是否可以在没有SAN的情况下创build3节点的Windows Server 2008 R2故障转移群集? 我们的目标是创build一个没有任何单点故障的群集MSMQ。 理想情况下,存储的消息将保留在群集的所有节点上,以便如果任何单个节点脱机,则群集可以继续运行并维持法定数量。 或者,还有另一种创build高可用性MSMQ的更好方法吗? (其他最可能不相关的信息)这个集群将作为一个NServiceBus“分配器”,并在我们的系统中保留所有“未决”消息。 这将是所有消息stream量经过的枢纽。 编辑:澄清,我特别感兴趣的是存储在节点上复制的MSMQ队列本身。 我将使用FileShare或节点多数法定人数来处理群集法定人数。
我正在为DHCP和DDNS设置故障转移系统。 正在使用的软件是在Ubuntu 10.04 LTS上运行的ISC BIND和ISC DHCP。 serverA运行DNS01和DHCP01,serverB运行DNS02和DHCP02。 DHCP故障转移设置为128位分割(每个服务器上的区域的一半),这是正常工作。 serverA被设置为主DNS,serverB是次(从)。 DHCP02应该在哪里指向它的dynamic更新? 是否可以使用DDNS条目更新从属区域,然后将AXFR返回给主节点,还是需要将所有DDNS更新指向DHCP01和DHCP02上的DNS01?
我想创build一个双节点集群,它使用内部存储作为共享存储。 我没有任何外部存储。 我知道Starwind和其他第三方产品,但我不能使用它。 只有微软的产品才能实现这一点。 我读了很多关于这个问题,但我找不到一个简单的,是的,这是可能的或不是。 有人曾经这样做,或尝试过,失败? 简单地使用Hyper-V副本会更好吗? 我在两台Dell Poweredge R720服务器上使用Windows Server 2012 R2。 感谢帮助
我希望有一个高可用性的MySQL系统,在Amazon EC2实例上运行自动故障转移。 解决这个问题的标准方法是Heartbeat + DRBD问题,但是我发现很多post提示DRBD在EC2上不起作用,尽pipe没有人确切地说明了为什么。 显然,在虚拟化环境中,连续的心跳或不同的networking是不可能的。 让不同的服务器处于不同的可用区域也是一件好事,但是我们遇到了一个非常棘手的问题 。 什么是人们对在“云”中拥有高运行时间解决scheme的看法? 注意:这个问题是在RDS发布之前被问及的,这个问题对于今天的现代IT专业人士来说是一个很好的自动答案。 🙂
我有一大堆可存储到文件中的数据(+ 100 GB)。 大部分文件将在5k-50k范围内(80%),然后是50k-500k(15%)和> 500k(5%)。 文件的最大预期大小是50 MB。 如有必要,可以将大文件分割成更小的块。 文件也可以组织在目录结构中。 如果一些数据必须修改,我的应用程序会复制,修改它,如果成功,将其标记为最新版本。 然后,旧版本被删除。 它是安全的(可以这么说)。 我需要实现一个故障转移系统来保存这些数据。 一种解决scheme是使用主 – 从数据库系统,但是这些系统是脆弱的,并且依赖于数据库技术。 我不是系统pipe理员,但我读了关于rsync指令。 它看起来很有趣。 我想知道是否设置一些故障转移节点,并从我的主人使用rsync是一个负责任的select。 有没有人试过这个成功? 如果是的话,我应该分割我的大文件吗? 是rsync智能/高效地检测哪些文件复制/删除? 我应该实现一个特定的目录结构,使这个系统高效? ii)如果主服务器崩溃并且一个从服务器接pipe了一个小时(例如),那么是否使主服务器再次像最新一样运行rsync(从服务器到主服务器)那么简单? iii)奖金问题:是否有可能使用rsync实现多主系统? 或者只有主人奴隶可能? 我正在寻找build议,提示,经验等…谢谢!
我有两个服务器与PG池build立一个Web应用程序创buildHA设置。 PGPool和postgres在两台服务器上运行,使用从服务器1到服务器2的stream式复制。每台机器上的webapp连接到PgPool,然后将请求发送到当前主机。 它被设置为在数据库连接被中断时自动进行故障转移,该数据库连接运行自定义的故障转移脚本以将服务器1降级到从服务器并将服务器2升级为主服务器。 今天早上发生的事情是2分钟内networking出现故障,这意味着两个PGPool实例都不能互相通话 – 所以每个PGPool都认为另一台机器已经closures。 服务器1 – 继续作为主服务器,断开服务器2 服务器2 – 启动故障切换,断开服务器1并使其成为主服务器 由于networking已closures,故障转移命令无法连接到服务器1以使其成为从服务器,反之亦然。 所以当networking在2分钟之后回来的时候,我所拥有的是两个都认为是主人的服务器。 PgPool似乎没有自动故障恢复命令,可以用来强制服务器1在networking重新连接时再次成为主控,这是我能想到的唯一真正的解决scheme。 我的问题是我该如何处理这种情况? 这甚至是这个设置的正确架构? 当然这是一种常见的情况,我不能理解这种情况如何解决。 编辑:这是明智的pgpool下运行在Linux下的虚拟IP – 哈? 这可以解决的事情,我已经有了公共IP的运行 – 这种方式只有一个pgpool实例被任何一台机器访问。
我有几台本地SATA / SAS RAIDarrays的服务器。 我想在那里运行具有某种自动故障转移级别的虚拟机 – 以1分钟的时间间隔将VM同步到辅助节点,并在主节点至less死亡时自动启动。 我已经在另一台机器上创build了具有文件共享见证的故障转移群集。 在故障转移pipe理器中,我无法添加任何磁盘,说“没有合适的磁盘”。 我尝试通过MS iSCSI Target添加虚拟iSCSI磁盘,但是它也没有出现。 如果没有共享存储,则无法启用Hyper-V副本代理。 如何使用Hyper-V上的当前硬件实现故障转移? 如果没有,我还有其他的虚拟化平台吗? 基于我在VMWare上的search,我需要HA + vSAN,这是相当昂贵的,Google的Ganeti不能很好地与Windows客户端配合使用。