Articles of 高可用性

弹性的Linux邮件服务器安装程序

人们将如何devise一个灵活的邮件服务器设置与Linux? 在应用程序级别上,系统需要提供的是传入和传出邮件服务(即SMTP和IMAP)以及过滤和归档存储(归档部分并不重要,所以我们稍后可能会看到)。 最需要的是一个有弹性的系统,即可以处理单个服务器故障而不中断服务的系统。 因此,我将这个称为高可用性邮件系统。 这与高性能邮件设置形成对比,因为在我们的情况下,正在处理的邮件数量不是重要的因素,它只是保持在线状态。 在没有处理过这个问题之前,我首先想到的是一个集群文件系统(gfs / gluster / etc),结合心跳将浮动IP故障转移到另一个服务器故障的情况下。 结合后缀&dovecot这听起来对人们可行吗?

Exchange 2010 DAG + VMWare HA =不支持?

我们目前有一个Exchange 2003集群环境(两台机器集群),我们希望升级到2010年。我们最近购买了一个VMWare虚拟化环境(三个戴尔R710,配有EMC NS-120,提供NFS数据存储 – iSCSI可用)我们希望用于这个新的环境。 我看到,Microsoft不支持带有虚拟化高可用性解决scheme的Exchange 2010 DAG(请参阅下面的链接)。 我想利用DAG确保数据保持可用,如果一个主机发生故障,HA确保如果物理主机closures,虚拟机将在另一个可用主机上恢复。 有谁知道为什么MS不支持这个? VMWare HA只会在挂起/closures的情况下重新启动虚拟机 – 如果有人拔掉电源,我不会看到任何区别,重新启动物理盒子。 如果与HA / DAG故障切换有关,我们是否会遇到支持问题,或者他们是否会看到我们有HA,并且告诉我们把它放在一个物理盒子上,即使它与HA无关? 如果我们禁用这些虚拟机的HA将满足他们的支持情况? 是否有人在启用了HA的VMware上设置Exchange 2010 DAG? 他们会有使用NFS数据存储的问题吗? 我们使用NFS和iSCSI的EMC具有更大的灵活性,所以我宁愿继续使用它。 感谢您的任何意见! http://www.vmwareinfo.com/2010/01/verifying-microsoft-exchange-2010.html看看“不支持”下的第二张图片 http://technet.microsoft.com/zh-cn/library/aa996719.aspx“Microsoft不支持将基于虚拟机pipe理程序的集群,高可用性或迁移解决scheme组合到Exchange高可用性解决scheme(数据库可用性组(DAG)) DAG在硬件虚拟化环境中得到支持,只要虚拟化环境不使用集群根服务器。

我的DAG已经故障转移,但Outlook客户端无法连接

我的公司有两台交换2010服务器(Mail1&Mail2)和DAGconfiguration。 有一天,我的Mail1服务器closures,Mail2自动接pipe! 我的问题是现在最终用户无法使用outlook访问mail2。即使我手动更改Outlook中的Microsoft Exchange Server到Mail2,但它会自动更改回Mail1(但此服务器现在closures)。现在最终用户只能使用OWA来访问邮件。 帮我! 谢谢!

光油和心跳作为负载均衡器

这是我想要完成的设置 所以,我试图完成的是:一个用户去10.0.0.1它传递给任何负载均衡pipe理请求。 然后我想要清漆实际上处理请求。 这是我的ha.cf文件: debug 3 debugfile /var/log/ha-debug logfile /var/log/ha-log bcast eth0 keepalive 2 warntime 5 deadtime 15 initdead 30 udpport 694 udp eth0 auto_failback yes node loadb1 node loadb2 *这在loadb2上是一样的。 另外我有debugging启用testing的目的。 在生产准备就绪时将被删除。 这里是haresources loadb1 IPaddr::10.0.11.200/32 varnishd *同样,在loadb2(我也试图这样做,使心跳不能pipe理除IP以外的任何东西,所以没有“varnishd”在最后的haresources) 我的清漆configuration如下: backend server1 { .host = "10.5.0.111"; .probe = { .url = "/"; .interval = 5s; .timeout […]

没有经验的pipe理员的存储群集

我是一个相对缺乏经验的服务器pipe理员,主要与Windows和一点点的Linux工作。 我是一个小型组织的唯一pipe理者。 我正在寻找一种具有高可用性存储集群的方式,以便将来可以轻松地将更多存储(新服务器)添加到集群。 这些服务器还需要在整个群集中自动复制数据,并将其作为networking其余部分的一个实体出现。 我正在寻找文件级存储,不一定是块级别的。 这是通过千兆以太网。 我听说过FreeNAS,但是从我所知道的情况来看,它并不是针对HA集群的情况而devise的。 我也看了Windows Storage Server的故障转移,但白皮书说,每个服务器必须有权访问共享存储arrays,而我正在寻找每个服务器群集有自己的arrays。 你知道哪些解决scheme提供基本的高可用性存储集群,你能指点我可以帮助我开始的任何资源吗? 你能指点我说明向集群添加新服务器的过程的任何资源吗? 编辑: 我的预算相对较低 – 不包括硬件,也许是1000美元。 理想情况下,我会用我需要的规格构build自己的服务器,然后在其上安装软件以促进群集。 总的来说,我希望每50TB花费12000美元或更less。

Bond0故障转移,当链接灯保持:高可用性networking

组态: 两个交换机,每个都有独立的互联网路由 具有eth0和eth1的Centos服务器在bond0上作为主动备份绑定,在switch上为eth0,在另一个上为eth1 /etc/modprobe.confconfiguration如此,对于bond0: alias bond0 bonding options bond0 mode=1 primary=eth0 miimon=100 eth0有时插入主交换机,有时是辅助交换机。 场景: 二级交换机有内存故障 链路灯保持不变,但交换机不再处理stream量 所以,因为我们使用miimon,只是获取链接状态,所以当交换机出现故障时,我们的服务器都没有禁用链接。 这导致networking中断,并且在eth0在那个辅助交换机的服务器上,他们变得完全不可用。 具有讽刺意味的是,这种情况比刚刚经历过这种情况的人要糟糕,因为他们没有进行故障切换。 我一直在testingarp_interval作为替代,但据我了解,arp_interval有两个限制: arp_ip_target只占用一个IP地址,这意味着如果该IP地址closures,bond0将错误地认为该链路应该closures,并把它closures。 我使用网关作为IP地址,但是如果网关出现故障,仍然可以继续进行内部到交换机的通信。 arp_ip_target也不会这样做; 它只会closures所有接口,甚至到最后。 arp_interval取决于一些networkingstream量(?),一个非常安静的链接可能会被错误地closures。 有没有办法绕过这些arp_interval限制? miimon能configuration好吗? 有没有更好的方法来完成HA联网? 我们一直在考虑通过每个服务器上的守护进程来手动处理故障转移,而不是使用arp_interval(即监视链接本身,并使用ifenslave将它们上下)。 我们已经不是表演的中介了, 可靠性真的是我们的首要任务。

是否可以在不使用硬件负载平衡器的情况下平衡多个Nginx负载平衡器之间的负载?

我计划使用单独的Nginx服务器作为软件负载平衡器来平衡我的应用服务器之间的负载。 但事实上,这是因为应用程序服务器前面的负载平衡器允许我在没有停机的情况下更新应用程序服务器(操作系统,应用程序等)。 然后我意识到,我该如何更新负载均衡器本身? 即当我需要更新作为我的应用程序负载平衡器的服务器上的操作系统和Nginx时,我的网站仍然会停下来。 由于硬负载平衡无可厚非,我想知道是否可以将两个Nginx Web服务器连接在一起,以便在应用程序服务器之间平衡负载,同时使我能够在需要时一次更新一个,而不会导致停机。 这是现实吗?

使用Synology作为vSphere的HA iSCSI后端的最佳configuration

我正在考虑为我们的VMware vSphere Essentials软件包购买新的存储后端。 我们有3个ESXi主机,目前主要使用DAS。 目标是今年升级到Essentials Plus,以利用其在高可用性和其他集成可用性选项中的额外function。 作为一名长期的Synology用户,我很高兴今天宣布推出新的RS815 +型号,吞吐量达到400MB /秒,并支持HA和SSD高速caching。 我打算将其部署为vSphere数据存储的iSCSI后端。 然而,我不确定要达到最高的冗余水平。 假设一个服务器设置,显而易见的select是: RAID-5中有3个硬盘,1个SSD作为caching RAID-5中有3个SSD,1个SSD作为caching RAID-10中的4个SSD 由于具有4个干线Gbit LAN端口,数据吞吐量被限制在400MB / sec。 这带来了主要的问题,都直接相关: 我是否正确地认为RAI​​D-5对于现在的固态硬盘仍然是不可取的,从而使得选项3成为耐久性的最佳select? 目前的三星850 Pro系列拥有无限的10年保证,所以看起来这不再相关。 我是否正确地认为选项1会执行这些设置中最糟糕的一项,因为10个以上服务器的存储后端意味着连续的不可预知的随机访问,造成太多的caching未命中,从而使HDD RAIDarrays成为瓶颈而不是networking? 选项2的优势是否超过3,反之亦然,因为我认为在真实世界的场景中,两者的performance完全相同。 更复杂的是,我正在考虑淘汰2台机架,以利用帝斯曼的高可用性function。 这意味着将会有额外的networking和磁盘负载进行同步。 我是否需要同时设置这些服务器,还是可以在一个月后添加第二个(预算限制…)? 它会需要有完全相同的存储configuration,或者我可以例如用更便宜的硬盘驱动器填充它,因为它只能运行在被动镜像99.99%的时间吗? 考虑到vSphere Essentials Plus提供了vSphere Replication,这使我能够在我们的其他一台非常慢的存储服务器上映射到NFS数据存储,因为它纯粹用于备份,所以甚至不需要Synology级别的冗余。

在AWS中运行OpenShift Origin的最佳方法

我正在尝试在AWS中创build一个生产就绪的Openshift Origin环境。 我有与Kubernetes和CoreOS和Kube-aws的经验使事情变得简单。 您生成资产,运行CloudFormation模板,并且您已完成设置。 具有用户数据的节点在自动调整组中设置。 现在,如果我想用OpenShift Origin做类似的事情,我该怎么做? 当然,我也想要HA。 任何工作指南得到一个想法? 每次运行安装一个新节点都不适合我。 一个节点应该在启动时自行启动。 谢谢

如何devise/确保Web服务器的高可用性?

我有一台1&1互联网的专用服务器,它有两个RAID1configuration的硬盘。 我预料这会很好,如果一个磁盘发生故障,另一个可以接pipe,直到损坏的一个被更换。 然而,在两次会议中,这两个硬盘都失败了(或1&1已经无能,并以错误的顺序replace),这已经造成了严重的问题。 我想知道确保在专用机器上运行的Web服务器的高可用性的最佳方法是什么? 到目前为止我有: 运行IIS 7,SQL Server + Web App软件的2x500GB HDD的专用服务器 EaseUS服务器备份每天运行两次 没有负载平衡器 我遇到的问题是,如果机器再次停机,平均需要3天才能恢复1&1。 我再也承受不起这样的损失。 他们不提供专用服务器的负载平衡器,但也许可以通过软件完成,我不确定。 我唯一的select是放弃专用的服务器altogther,并与一个“云”服务器是一个VMWare机器。 他们声称其强大,因为基础设施是如此之大,任何硬件问题对客户影响不大。 但我讨厌丢失专用服务器的想法,因为我发现它们更容易configuration。 什么是这样做的好方法? 也就是说,我的网站始终可用,停机很less。 我的预算是每月150美元左右。 我的服务器目前花费大约60美元。