Articles of 高可用性

如何configurationcluster.conf用于故障转移路由两个networking?

我在一个具有互联网连接的“外部”子网和两个“内部”子网之间进行路由,在运行CentOS 6.4的Linux机器上使用iptables转发: 我想现在使用红帽集群套件( rgmanager和cman )将此路由器复制到HAconfiguration中: 使用此cluster.conf可以在两台主机之间获得浮动IP地址: <resources> <ip address="192.168.1.1" monitor_link="1"/> <ip address="192.168.2.1" monitor_link="1"/> <ip address="192.168.3.1" monitor_link="1"/> </resources> <service autostart="1" name="ha-routing" recovery="restart"> <ip ref="192.168.1.1"/> <ip ref="192.168.2.1"/> <ip ref="192.168.3.1"/> </service> 但是,如果其中一个内部networking出现故障,整个服务将无法启动,有效的解除了其他networking的连接。 我尝试将IP分离成单独的服务,都使用外部IP: <service autostart="1" name="ha-routing-a" recovery="restart"> <ip ref="192.168.1.1"/> <ip ref="192.168.2.1"/> </service> <service autostart="1" name="ha-routing-b" recovery="restart"> <ip ref="192.168.1.1"/> <ip ref="192.168.3.1"/> </service> 在这种情况下,如果内部networking出现故障,集群服务将closures,外部地址将被删除,所以似乎仍然会杀死其他内部networking。 双方为两个networking获得故障转移路由的最佳configuration是什么?

Remus或替代品

是否有可能将Remus设置为跨3个位置的高可用性服务器。 有没有人设置类似的东西。 那就是A会是主场所,B会有一个医pipe局,C应该接pipeA和B。 我已经看到Remus的站点到站点的成功实施。 但不知道网站到网站的工作方式。 1)在这种情况下你将如何处理脑裂情况? 2)还是在福斯世界里有一种替代Remus的方式?

最佳的PostgreSQL高可用性策略99%的阅读scheme?

我正在构build一个新的PostgreSQL(9.3)环境,在这个环境中,stream量徘徊在99%左右。 我们将有2个非常强大的机器,通过1Gb以太网连接。 9.x版本提供了众多的复制和故障转移选项,高读取scheme的最佳select是什么? 备用服务器也作为只读从属设备的解决scheme是理想的。

(简单)linux HA与vmware vsphere?

我希望我的即将提出的问题足够具体,并且您能够并且愿意支持:-)在ESX-Cluster(三个ESX服务器)中有多个具有连接的iSCSI-SAN的openSUSE VM。 所有这些Linux虚拟机都是“单点故障”configuration,这意味着在Web服务器的情况下:LAMP,存储等此机器上的所有内容。 这是非常简单的,如果发生故障(在过去的几年:内核恐慌或Apache崩溃)由脚本触发一个简单的重启做到了。 但问题是:如何在不停机的情况下升级/维护w(eb-)应用程序或底层操作系统? 这不是真正的pipe理,我在清晨就做到了这一点;)我现在如何实现一个“简单的”高可用性群集? 我想到:DRBD带有2个虚拟机的心跳。 对于存储RDM(原始设备映射)LUN并更改这两个VM的读写权限。 这是一个好主意吗? 任何人有更好的解决scheme?

基于HP刀片的georedundantconfiguration/ IRF

我打算部署2个georedundant服务器场。 我们select了惠普刀片系统。 每个网站将包括: 1个C3000机箱 4 x BL460c服务器配备554M夹层(有4个LAN端口) 2个6125G刀片交换机 入站stream量(http,radius)将通过一对负载均衡器(主备)到达我的服务器。 服务器将运行Linux。 我有两个关于networking体系结构和冗余的问题: 我应该如何连接刀片交换机,我应该通过专用SFP端口做4个节点的IRF环? 惠普表示,IRF可以取代STP … IRF是否足够用于互联地理上分离的网站? 您是否推荐使用传统技术的IRF? 让这些中间层NIC为每个服务器刀片提供额外的2个端口,可能有2个绑定接口和VLAN足以保护服务器和交换机刀片之间的链接,这是否有好处?

冗余Web静态内容存储 – 有哪些技术? (小规模)

我们的静态Web服务器的现状: 2个2U服务器,全部用于存储数据的SSD(raid5) 数据只能通过我们的应用程序写入(*) 大量的小图像文件(一个图像是〜50kB) stream量负载平衡2 DNSlogging+ keepalived /心跳在服务器之间 在峰值时间内〜4Gbps的总stream量(每台服务器〜2Gps) 用户通过nginx访问文件,通过ftp访问内部应用程序 我们使用的只是获取,删除,放 – 我的意思是,没有文件追加和其他posix调用使用,我们只操作整个文件(甚至HTTP范围请求是不允许的) (*)只有我们的内部应用程序通过ftp写入两台服务器。 如果其中一个失败,整个操作失败=>当其中一个服务器closures时上传不起作用。 但是,向Web客户端提供静态内容仍然有效。 我们已经达到了磁盘容量的50%,我们开始寻找更好的解决scheme。 因为我们不需要标准的posix调用,所以我正考虑迁移到对象存储。 我发现OpenStack Swift非常有名,可能会有用。 我害怕的是: 我们将仅在下一个半年运行在两台服务器上 我们有很多networkinghttpstream量,我不确定迅速可以处理 另一个问题是更具体一点。 我们希望为用户提供通过一些上传表单(例如eshop中的图片产品)上传内容的能力。 所以问题是 – 是否有任何直接上传进度条的方式,…? 或者我们必须把它上传到没有处理任何静态内容(=不在git中的内容)的标准Web服务器,然后将其上传到对象存储。 随意张贴您的意见,甚至更好的最佳做法。 还有一件重要的事情 – 我们不想使用任何CDN提供商。 更新#1: 好了朋友们。 还有一些我发现的技术: GlusterFS:不幸的是非常慢,并不稳定。 HDFS:我没有经验。 你什么事?

局域网冗余 – 网卡,电缆+交换机?

我正在尝试迁移到HA解决scheme,并希望了解在NIC,交换机和电缆中需要哪些硬件来实现冗余。 下面的图表显示了我如何设想一个非冗余和冗余的解决scheme,我不知道它们是否可行,如果有的话,硬件将需要什么特性。 感谢您的意见 – 希望以下将回答一些问题: 题 所以问题是第二个图表是否工作,如果是的话,硬件的特点是什么? 例如,我读了一个选项,提示NIC需要“组队”,交换机需要支持生成树协议。 要求 我认为在1g的“备份”开关就足够了,并节省了一个非常紧张的预算 – 我只是想获得最可靠的解决scheme。 我不介意1g交换机是否为了适应预算而进行故障转移(所以绝大部分时间都没有使用)。 硬件 2端口(千兆和10g)专用服务器NIC芯片是分开的(尽pipe在一个扩展卡中)。 10g的型号是Intel X540-T2 我一直在看的10g交换机是Netgear XS712T 。 交换机被分类为“智能”(部分pipe理?),并支持生成树协议。 共享存储是QNAP TS-879U-RP 软件 操作系统是Proxmox(基于Debian)

在故障转移群集中使DB2资源联机

我在Windows Server 2012 R2上使用DB2 10.1企业服务器版 使用db2wolfi命令将DB2资源添加到集群之后 ,我转到集群属性中的资源选项卡,并find在用户定义的部分下添加的新资源。 但是,问题是显示名称显示为资源不可用 。 我需要知道为什么发生这种情况,以及如何解决这个问题,因为在将这个资源添加到我创build的angular色之前,我无法使其联机。

在Azure中设置大量高可用性存储以使用多个VM的最有效方法?

我正在研究在Windows Azure中设置海量高可用性存储的各种选项,以便与我的Azure VM一起使用。 虚拟机需要能够像存储文件系统一样使用存储。 假设我有三台运行在Azure上的虚拟机,都需要共享同一个存储。 共享存储高可用性,故障切换时间最短,这一点非常重要。 除此之外,我还需要大量的存储空间 – 我们正在谈论数十TB,甚至可能长达数百个。 目前我正考虑在多个Azure虚拟机实例上设置分布式文件共享(DFS),以创build一个多实例文件服务器环境,以便其他虚拟机可以使用它。 我已经find了一个很好的资源如何运行。 这个解决scheme看起来像一个很好的设置,但它有两个注意事项: 从我所能理解的情况来看,切换到冗余文件服务器实例的故障切换时间在60-90秒之间。 鉴于文件服务器实例将作为常规操作系统更新等的一部分每月重新启动几次,我相信我们仍然能够保持99.95%的SLA,但在故障转移时间更短的情况下更好。 鉴于Azure目前对可以连接到单个VM的VHD有多less限制(对于大型VM实例,目前为16 x 1TB VHD,而且我需要冗余,所以我必须为每个16TB存储启动2个新的文件服务器虚拟机需要添加。 考虑到使用存储的虚拟机需要像存储文件系统一样使用存储,在Azure中创build大量高可用性存储是否更具成本效益? 如果没有,有没有办法缩短这个设置的故障转移时间,甚至更远?

无法将HDFS从非HA转换为HA

介绍 目标:将HDFS从非HA转换为HA。 方法:根据本文档 ,应该可以通过执行以下configuration将HFDS从非转换为HA: /etc/hadoop/conf/hdfs-site.xml <property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property> /etc/hadoop/conf/core-site.xml <property> <name>ha.zookeeper.quorum</name> <value>localhost:2181</value> </property> 并执行以下命令: sudo service hadoop-hdfs-journalnode start sudo service hadoop-hdfs-zkfc start hdfs namenode -initializeSharedEdits sudo -u hdfs hdfs namenode -bootstrapStandby sudo service hadoop-hdfs-namenode start 结果: 14/06/09 15:37:15 FATAL namenode.NameNode: Exception in namenode join java.io.IOException: org.apache.hadoop.HadoopIllegalArgumentException: HA is not enabled for this namenode. at […]