Articles of 高可用性

Xen Remus设置

目前,我正在为一个小型机构运行IT,而我们只是购买了一台新的服务器来替代我们老旧的戴尔供应商。 由于戴尔并不是那么糟糕,所以我希望能够在新的服务器上安装Xen,然后通过Xen Remus将旧版本转换为故障切换目标。 但是,我已经完全无法在我们的新服务器上获得remus工具。 我已经尝试了以下内容: * CentOS 5.5,股票,并从源代码为自定义2.6.32内核编译(遇到一个错误,我们无法在启动时尝试使用自定义内核debugging)* Debian 6.0 * Ubuntu 10.04(非主线Xen软件包) 我已经设法让所有的dom0运行,但没有运行的版本都有Remus。 有谁知道一个包含从头开始设置Remus的教程,或者知道什么操作系统可以用作dom0,其中包括remus和xen软件包? 到目前为止,我还没有发现任何与Remus相关的资源,在安装该工具之前就已经开始了。

GlusterFS作为弹性文件存储?

有没有办法在复制模式下运行GlusterFS,但是能够dynamic缩放音量? 假设你有3台服务器都在运行。 你的Gluster量将不得不与副本3设置 gluster volume create test-volume replica 3 192.168.0.150:/test-volume 192.168.0.151:/test-volume 192.168.0.152:/test-volume 然后你可以像\ mnt \ gfs_test那样挂载它 当我想要添加2台服务器到存储池,然后在这个卷中使用它们时会发生什么? 有没有简单的方法来扩大和增加副本数量为5? 我的最终目标是在EC2实例上运行,比如3个Apache前端,在gluster卷装上安装webroot。 我担心的是,如果我需要启动服务器,我希望服务器不仅是一个额外的Apache前端,而且也是gluster文件系统中的另一个服务器,增加了容错能力以及可能的轻微提高读取速度。 也许有更好的select,这将符合法案在这里? 谢谢。

networking跨越广域网

我有2个networking由广域网(25/25光纤VPN)隔开。 我想通过NFS提供一些文件到networking上的两台服务器(和Samba的桌面,但这是在每个网站的基础上)。 其中一些文件是服务器操作的核心,所以我希望两个networking之间有一定的冗余,这样如果VPN连接断开,操作不会中断。 没有必要让网站的同步是“即时”的,尽pipe我希望他们快速而不是每小时一次的工作。 我也有兴趣在未来某个时候扩展到3-5个网站,所以增长是一个考虑因素。 从我的研究到目前为止,似乎有几个select: 1)drbd用于在站点之间进行同步,然后在每一侧上进行NFS 2)群集的NFS 3)使用unionfs,rsync或类似的自制解决scheme 这似乎是drbd实际上是最简单的解决scheme,由于某种原因,似乎对我来说是反直觉的。 有没有在我的search中find另一种解决scheme?

VPS托pipe与跨数据中心的IP故障切换

是否有任何VPS托pipe,允许跨不同数据中心进行IP故障切换(或重新映射)? 我唯一知道的是EC2和他们的弹性IP。 我想要实现的是在两个独立的数据中心中安装服务器,当一台服务器或一台数据中心发生故障时,它将故障切换到另一台服务器。 自己pipe理BGP是没有问题的。 由于传播延迟,DNS似乎不是一个完美的解决scheme。

哪种高可用性模式可供网站select(nginx / mysql)

我们有5台物理服务器。 全部完全相同。 突击search16克,4×146×10克。 所以,我们需要高可用性。 目前的计划如下: 2个带心跳的盒子用于负载平衡。 此时nginx被configuration为平衡器。 那么问题是networking和MySQL。 我打算设置2个运行mysql和nginx的框。 在这些框之间在master < – > master中设置mysql复制。 然后添加已复制mysql的最新的框。 对于这个模型,每个web服务器连接到它的本地mysql服务器。 (以最小化networking延迟)。 其他模式是把两个盒子(nginx)放在HA中,另外两个盒子放在mysql master / slave中。 但在这个模型负载平衡器是孤独的…. – 或者我需要另一个设置。 基本上我不需要怎么做,但select哪种模型。 我们需要处理大量的stream量(约20k /秒)。

即使存在小的SANnetworking问题,SBD也会同时杀死两个群集节点

我在基于openais的群集中遇到了stonith SBD的问题。 一些背景:主动/被动群集有两个节点,node1和node2。 它们被configuration为向用户提供NFS服务。 为了避免裂脑问题,他们都被configuration为使用SBD。 SBD使用两个1MB磁盘通过多path光纤通道networking提供给主机。 如果SANnetworking发生问题,问题就会出现。 例如,今天一台Brocade交换机重新启动,两个节点中的每一个都丢失了4条path中的2条,导致两个节点都自杀并重新启动。 这当然是非常不可取的,因为a)存在pathb)即使交换机将出现10-20秒,两个节点的重新引导周期将花费5-10分钟,并且所有的NFS锁都将丢失。 我试图增加SBD超时值(到10秒+值,转储附在最后),但是“警告:延迟:4秒没有活力超过3秒的阈值”暗示有些东西不能像我期望的那样工作。 这里是我想知道的:a)SBD是否工作,因为它应该在两个path可用时杀死节点? b)如果没有,multipath.conf文件是否正确? 我们使用的存储控制器是IBM SVC(IBM 2145),是否应该有任何特定的configuration? (如multipath.conf.defaults)c)我应该如何去增加SBD中的超时 附件:Multipath.conf和sbd dump ( http://hpaste.org/69537 )

apache交通服务器的护栏节点

目前我正在研究Apache Traffic Server作为提供更好的Web服务可用性的工具。 但看看手册,我看不到任何关于如何主动篱笆集群节点的参考。 如果closures实例,其他节点将接pipe虚拟IP,根据手册,故障转移需要大约30秒才能检测并响应。 有没有办法从集群中正常删除节点?

在Windows中使用2个tomcat服务器的高可用性设置

我试图用2个tomcat服务器设置高可用性设置(不是负载平衡,只有HA)。 当我谷歌的信息,我得到吨的链接与apache + HAProxy + keepalived安装Linux的虚拟IP前端。 这似乎很简单。 我们需要将此设置设为HA模式,并在活动服务器出现故障或应用程序检测到某些关键资源不可用或将其closures以进行维护时切换服务器。 我们不使用Apache,但如果需要,可以将它们添加到每个tomcat的infront。 (见图)。 我相信我们可以在Solaris上做类似的工作,因为HAProxy可以用于solaris。 我的问题是我们可以在Windows中实现类似的东西吗? 我们应该能够控制通过脚本或可以从代码调用的东西的切换(如果应用程序决定某些关键资源不可用,需要切换或出于维护目的)

将文件系统集群为XenServer存储

我想为XenServer环境中的4个主机服务器使用共享存储,这些主机服务器在XenServer下运行各种虚拟机。 计划使用2个额外的服务器作为存储与某种高可用性。 虽然最明显的解决scheme是iSCSI SAN软件,但是我看到一些build议,即将iSCSI完全忽略,并转向集群文件系统 – 最显着的是GFS2和Lustre。 但是,我在XenServer中看不到支持连接到这些集群系统的选项。 首先,是否需要将4个XenServer主机也作为群集的一部分? 当我通过Citrix下载进行安装时,我不太清楚我将如何去做,或者甚至需要。 不需要超过30个VM,并且存储限制在4TB以下。 在这种情况下,什么样的集群types最好? 或者这对Xen不起作用?

LVM DRBD在节点proxmox之间共享

上下文:我有一个proxmox集群,其卷组与drbd共享的VM-KVM。 我有一个drbd的问题。 事实上,当一个节点断开连接时,不同节点之间的关联链路被中断。 影响是: 状态drbd节点:cs:WFConnection / cs:独立 如果我们将重新启动drbd并重新同步服务是OK(CS:连接),我做这个动作: 我停止正在运行的虚拟机(因为:错误:模块drbd正在使用)我禁用vg(与vgchange -an)我重新启动drbd服务和重新同步运行 configuration是: /etc/drbd.conf: # You can find an example in /usr/share/doc/drbd…/drbd.conf.example include "drbd.d/global_common.conf"; include "drbd.d/*.res"; Global_common.conf: global { usage-count no; } common { protocol C; startup { degr-wfc-timeout 120; # become-primary-on proxmox001; become-primary-on both; } disk { } net { allow-two-primaries; after-sb-0pri discard-zero-changes; after-sb-1pri discard-secondary; after-sb-2pri […]