Articles of 高可用性

Exchange 2010 DAG故障转移群集DNS问题

我遇到了Exchange 2010服务器的问题。 我有两台服务器安装了HUB / CAS / MAILBOX。 它们被configuration为使用DAG故障转移群集。 我最近遇到了一个问题,那就是DAG的DNS条目和域控制器上的DNS丢失的MAIL01服务器。 我不知道他们是如何消失的。 我在线阅读,解决问题的一种方法是重新创buildDAG DNS,并确保它具有特殊权限,以便两个邮件服务器可以更新DNS条目。 这没有用。 我还重新创build了MAIL01服务器的DNS条目。 从命令提示符下运行“群集/列表”命令时,群集DAG将列出两次。 在群集的活动节点上,我得到以下事件: 日志名称:系统来源:Microsoft-Windows-FailoverClusteringdate:2013/2/12 9:09:03事件ID:1196任务类别:networking名称资源级别:错误关键字:用户:系统计算机:MAIL01.domain.local说明:由于以下原因,集群networking名称资源“集群名称”无法注册一个或多个关联的DNS名称:DNS操作被拒绝。 。 确保与从属IP地址资源关联的networking适配器configuration了至less一个可访问的DNS服务器。 事件Xml: 日志名称:系统来源:Microsoft-Windows-FailoverClusteringdate:2013/2/12 9:09:03事件ID:1579任务类别:networking名称资源级别:警告关键字:用户:系统计算机:MAIL01.domain.local描述:群集networking名称资源“群集名称”无法通过适配器“MAPI”更新名称“DAG.domain.local”的DNSlogging。 错误代码是“拒绝DNS操作”。 (9005)”。 确保可以从此群集节点访问DNS服务器,并与您的DNS服务器pipe理员联系,以validation群集标识可以更新DNSlogging“DAG.domain.local”。 我需要这个问题的一些帮助,任何build议将是美好的。

高可用性NFS

我们正在考虑在Amazon AWS上托pipe一个Web应用程序。 我已经为它提出了一个build议的设置,我将尝试总结几行: Web应用程序由负载均衡器后面的3个可用区域中的Web服务器提供。 当负载增加时,networking服务器会自动从3增大。 这是通过运行几个bash命令的用户数据文件完成的。 数据库放置在多可用区RDS解决scheme上 由于应用程序写入文件系统,我们还需要在webroot上安装某种networking附加文件系统。 最后一点是我担心的。 我有一些AWS的经验,除了处理两个可用区之间的延迟之外,这将提供单点故障。 所以,我一直在看GlusterFS,因为那是serverfault上的某个人向正在处理类似泡菜的人提出的build议。 我已经在每个AZ中build立了一个Gluster节点的环境。 在我的web服务器的启动脚本中,我评估它所在的AZ的名称,并select同一AZ中的Gluster节点,以减less延迟。 那很完美! 但是,让我们说在AZ美国us-east-1a节点以某种方式失败。 有没有办法让我的web服务器在us-east-1a回落到us-east-1b的节点us-east-1b如果us-east-1a节点不可用? 当然,如果两者都不可用,对us-east-1c也是us-east-1c ? 到目前为止,我只看到了在同一台机器上使用Gluster的服务器和客户端function的例子,我想避免这种情况。 出于性能考虑,我将使用NFS客户端可能是一件好事。 当然,这个文件存储系统的任何其他build议将是非常受欢迎的。

容错networking访问异构环境(包括Windows)中的冗余存储?

我们正面临devise“挑战”,我们需要build立具有以下属性的存储解决scheme: 我们需要的 哈 一个可扩展的存储后端 在客户端的离线/断开操作来解决networking中断 跨平台访问 从肯定的Windows(可能是XP向上),可能是Linux的客户端访问 后端集成了AD / LDAP(权限pipe理(用户/组pipe理,…)) 应该通过慢速WAN链路合理地工作 另一个问题是,我们并不真正了解所有可能的用例,如果人们需要能够并发访问共享文件,或者他们只能访问自己的文件,那么可能的解决scheme需要考虑并发访问从用户的angular度来看,冲突pipe理将如何看待这种情况。 这两年的博客文章总结了我在过去几天的研究中得到的印象,有很多目前的übercool项目实施(非Windows)群集PBaby blob存储解决scheme,但有没有一个支持断开连接的操作很好,本地化,但我希望我们已经错过了一个明显的解决scheme。 我们已经尝试过了 的OpenAFS 我们认为我们需要一个带有本地caching​​的分布式networking文件系统,并testing了一个星期的OpenAFS(作为目前唯一支持断开操作的“稳定的”DFS,似乎是一条路),但是有几个问题: 这是一个真正的痛苦设置 没有官方的RHEL / CentOS软件包 elrepo目前的稳定版本1.6.5.1的包随机在新鲜的安装上发生恐慌,这是绝对不行的 Windows支持(包括所需的Kerberos包)是神秘的。 1.6分支的当前客户端不能在Windows 8上运行,1.7是当前的客户端,但它只是随机崩溃。 之后,我们甚至没有对XP和Windows 7进行testing。只能说,我们无法正常工作,整个设置如此不稳定和复杂,以至于不能用于生产。 桑巴+联合 由于OpenAFS是一个完整的灾难,并没有其他的DFS似乎支持断开连接的操作,我们去了一个更简单的想法,使用Unison将文件同步到Samba服务器。 这具有以下优点: 桑巴集成了AD; 这是一个痛苦,但可以做到。 Samba解决了从Windows远程访问存储的问题,但引入了另一个SPOF,并没有解决实际的存储问题。 我们可以将Samba下的任何集群FS捆绑在一起,但这意味着我们需要一个HA Samba安装来维护高可用性,这可能会增加很多额外的复杂性。 我依稀记得以前尝试用Samba实现冗余,而且我不能在服务器之间静静地进行故障切换。 即使在线时,您也正在使用本地文件,如果仅在断开连接时触摸本地caching,将导致更多的冲突 这不是自动的。 我们不能期望用户定期使用(function性但不太漂亮的)GTK GUI手动同步他们的文件。 我试图用Windows任务计划程序半自动化这个过程,但是你不能以令人满意的方式真正做到这一点。 最重要的是,Unison的工作方式使得与Samba同步成本很高,所以恐怕它不能很好地扩展,甚至根本就不能扩展。 Samba +“脱机文件” 之后,我们变得有点绝望,给了Windows“离线文件”一个机会。 我们认为拥有内置于操作系统的东西可以减lesspipe理工作, 在工作不正常时帮助指责其他人,因为人们已经使用了这么多年,所以应该工作。 对? 错误。 我们真的想要它的工作,但它不是。 30分钟复制文件和拔掉网线/禁用networking接口留给我们 (无声!状态栏中的Windows资源pipe理器中只有一个很小的通知,如果点击它,它甚至不会打开同步中心!)服务器上的不可修复的文件(!)和 甚至不应该是冲突的冲突。 最后,我们有一个小文本文件成功同步,其他一切只是爆炸可怕。 除此之外,还有其他问题: […]

ASA高可用性故障切换链路configuration

根据“ Cisco ASA 5500系列configuration指南” ,Cisco为ASA高可用性configurationnetworking的首选方法如下: 它们在外部有两个开关,内部有两个开关,在两个ASA单元之间有两个直接的非开关连接。 为什么两个ASA之间的联系? 我能想到的唯一的事情是,如果一个故障切换链路出现故障,那么如果故障切换链路的接口出现故障,那么两个交换机都会认为它们是主要的单元(并且随之而来),而debugging哪个链路失败会更困难因为这两个单位将表明他们的界面是离线的。 然而这看起来就像潜在的失败一样。

使用Keepalived进行主动/主动HAProxy设置的任何问题

如果之前已经问过这个道歉,但我似乎无法find很多。 我们将使用HAProxy来平衡我们的MariaDB Galera集群。 我已经看到的所有文章/教程使用Keepalived(或类似的)主动/被动HAProxy设置。 有没有什么好的理由,你不应该有一个主动/主动设置? 每个HAProxy节点可以有一个固定的IP,并且都有一个浮动的IP。 在正常情况下,请求在两个HAProxy节点之间共享,如果其中一个出现故障,另一个则需要浮动IP并在两个IP下处理请求。 当另一个回来时,它的浮动IP和负载的份额又回来了。 我会很感激你的意见。 卢克

每个高可用性集群中的每台计算机是否应具有相同的时区?

我很好奇,如果有经验的人认为有必要让复制集群中的所有计算机在同一时区和时间,而不pipe物理位置如何,以确保存储date,并且任务同时按照共享时区。 这可以被认为是最好的做法或完全应用程序的具体内容?

ipt_CLUSTERIP:未知协议1

我正在尝试创build一个具有两个负载平衡器和一个公共IP地址的Web群集 我使用的命令如下: iptables -I INPUT -d $CLUSTERIP -i $WAN_IF -j CLUSTERIP –new –clustermac $CLUSTERMAC –total-nodes $TOTALNODES –local-node $LOCALNODE –hashmode sourceip-sourceport 我失去了10%的请求,我不知道原因。 在第一个节点dmesg说: [3953663.740770] ipt_CLUSTERIP: unknown protocol 1 [3958608.863834] ipt_CLUSTERIP: unknown protocol 1 [3959598.791987] ipt_CLUSTERIP: unknown protocol 1 [3962373.974935] ipt_CLUSTERIP: unknown protocol 1 [3964028.213515] ipt_CLUSTERIP: unknown protocol 1 [3964884.100071] ipt_CLUSTERIP: unknown protocol 1 [3969131.737498] ipt_CLUSTERIP: unknown […]

HAproxy mysql故障转移

我尝试使用Percona xtraDB Cluster for MySQL复制和HAproxy来设置HA集群以实现负载平衡。 HAproxy对于apache非常有效,当apache崩溃或者没有响应时,HAproxy会在另一个节点上进行切换。 我的问题从MySQL开始,我也在相同的HAproxy中设置MySQL,但是当MySQL没有响应时,HAproxy不会切换到另一个节点。 然而,HAproxy看到,MySQL检查HAproxy状态MySQL服务器closures时,不响应原因。 我的问题是,是否有可能在HAproxy中设置两个资源? 他可以检查apache是​​否启动,如果没有启动另一个节点,检查MySQL是否启动,如果没有则启动另一个节点? HAproxy.conf: […] frontend redmine bind 192.168.7.149:80 reqadd X-Forwarded-Proto:\ http default_backend redmine frontend redmineS bind 192.168.7.149:443 ssl crt /etc/ssl/private/quipment.fr.pem reqadd X-Forwarded-Proto:\ https default_backend redmine backend redmine 192.168.7.149:80 redirect scheme https if !{ ssl_fc } mode http balance roundrobin option http-server-close timeout http-keep-alive 3000 option forwardfor cookie […]

Web服务器的高可用性和复制

我有一个像这样的3层Web解决scheme: 前端负载均衡+代理+静态内容 后端带有2个Apache Web服务器,每个服务器服务于不同的站点 将内容推送到Apache Web服务器的发布系统 所以我正在为后端Web服务器的高可用性解决scheme工作。 我的想法是复制后端服务器之间的内容,如果一个失败另一个将服务于所有的网站(这可能是手动或使用心跳)。 问题是这些网站在总大小和文件数量方面都很大。 我尝试使用rsync在服务器之间复制内容,但需要很长时间。 此外我想使用NFS来共享内容,但这不是高可用性的选项。 另一种方式是发布系统将内容推送到两个Web服务器,但是如果我将另一个Web服务器放在后端,会发生什么? 有一个更好的方法吗? 我不需要同时提供相同内容的两台服务器,但是同步的内容是必须的。

针对高端数据库查询系统的编程语言和数据库build议(每天>五千万个查询)?

这些要求目前是粗略的,但会感谢任何见解。 我们正在研究如何构build一个能够每天处理50个数据库数百万个查询的系统 – 特别是从编程语言和数据库select 它不是一个典型的网站,而是一个通过互联网访问的API /数据库。 速度至关重要。 应用程序将主要接收这些input(每个大约几kb),并且必须通过数据库查找来解决每个input。 只有几kb将被返回。 服务器将通过https / ssl运行。 添加: *是的,还会有几千个插入。 没有洞察到,但可以说10-50,000 /天。 *也可能有更新,但不要使问题复杂化 *不,它不会在一天中平均分散。 典型的,在办公/醒来的时候,负载会更高? 也许遵循正常的曲线 – 还不知道。 *数据库大小将为15亿条目。 *客户端不会发送sql查询,而是一个数字来检索数据库条目。