出于某种原因,在我看来,至less有一个故障转移应该在同一栋楼里。 但是我真的不知道。 在发生故障时,用户的路由延迟可能会出现问题吗? 我只是在想这个理由。 让我知道,至less有一个故障转移节点应该在另一个地理位置上吗? 我试图防止看起来是一个糟糕的决定,所以任何反馈或生活经验,你可以分享将是盛大的。 主要是运行Windows Server 2008和SQL Server 2008作为客户操作系统。 编辑:我正在谈论两个物理机器,要么彼此相邻,要么在国家的两端。 其中一个将总是在使用虚拟化许多服务器,另一个将是第一个的复制,并且只有在第一个脱机的情况下才被直接使用。
我们正在为我们公司构build一个新的安全的Web应用程序,并正在寻求确保我们数据中心冗余的选项。 我们没有很多钱,但是有相对较高的带宽要求,所以考虑使用T1备份的50/20 FiOS业务连接,总共花费约600美元。 相比之下,一个15Mbps的部分T3在我们的地区成本$ 2500 /月。 如果我们要这样做,有没有办法让有人在我们的地址input,如果FiOSclosures,自动redirect到另一个线路? 由于这是一个SSL连接,所以我们需要确保证书也可以工作。 更新 – 对那些提出外部数据中心解决scheme的用户,我们有相对较高的内部用户带宽要求(〜80Mbps)。 购买一个80Mbps的pipe道到一个托pipe设施,我们也要支付很高的月租费,这在财务上并不可行。 在我们这个地区,这样的设置每月要花费大约1万美元。
我正在开发一个客户端 – 服务器系统,在这个系统中,所有的客户端目前都将他们的事务提交到一个单一的西岸IP地址,以达到所谓的“网关”应用程序。 网关执行一些记帐,并将每个事务分派到多个数据库服务器中的任何一个以进行最终处理。 服务器将结果直接返回给客户端(不通过网关返回)。 计划是在东海岸增加第二个网关,以实现冗余和故障切换。 它通常只会处于待命状态,旨在接pipe并成为工作网关出现故障时的实际网关,本质上是此处所示的经典configuration。 一些与会者认为,只有一个备用网关是不够的,我们还应该在中西部地区实施第二个备用网关。 其他人则认为,两个待机的额外成本,复杂性和pipe理是不必要的,同时在两岸同时无法使用网关是不太可能的,因此不会成为问题。 什么被认为是最佳实践? 多less冗余(就客户端可用的物理上独立的接入点而言)通常被认为是名义上的? 双重失败是否足够普遍,只有一个待机是经常后悔的? 编辑:关于“计算”成本与利益的冗余量我需要或想要的,我想这是最好重新措辞我的问题为: 哪些统计数据表明地理上分离的IP地址集合的频率同时不可达? 换句话说,就像一张桌子一样 On average, 1 west coast IP + 1 east cost IP are simultaneously unreachable 1 day/year. On average, 1 west IP + 1 east IP + 1 southern IP are simultaneously unreachable 1 hr/year. On average, 1 west IP + […]
好吧,我有2个运行客户端访问/集线器传输/邮箱angular色的Exchange 2010服务器和一个运行客户端访问/集线器传输angular色的Exchange 2010服务器,并充当我的桥头堡。 两台邮箱服务器在DAG中运行一个数据库设置。 服务器A显示数据库已装入,服务器B显示正常。 如果我通过windows GUI服务器B交换机从健康状态重新启动,并且几乎看不到使用Outlook 2007的服务中断,服务器A显示“服务closures”,然后“失败”,然后“健康”,并将数据库挂载在服务器上B.这是应该如何工作的,迄今为止这么好。 现在,如果我testing服务器Aclosures冷,或从networking上拔出两个NIC来模拟故障,服务器B从健康状态切换到已安装,服务器A切换到“服务停止”,但我的Outlook客户端永远不会连接到服务器B上安装的数据库! 我可以连接到服务器C(客户端访问/集线器传输),并获得我的电子邮件,甚至发送新的电子邮件,但传入的电子邮件不会传递,直到服务器A恢复在线,它的数据库恢复到健康状态。 所以我不明白为什么它会自动故障转移,当我用挂载的数据库副本重新启动服务器,造成很小的前景2007打嗝,如果有的话。 但是,当我closures或DC挂载的数据库服务器它挂载健康的副本,但Outlook 2007客户端无法连接.. 我希望我画的画面有一定的意义,这会让我有点慌张。 任何帮助,将不胜感激!
我有一个内置大量硬件冗余的LAMP服务器。我不担心服务器变得不可用。 然而,我所担心的是服务器所在数据中心的潜在networking问题。我想要的是另一台服务器在另一个数据中心进行冗余。 负载平衡不是一个问题。 说了这么一句,我在两点上比较无能: 在文件和MySQL数据库方面,如何在两个具有完全相同数据的地理上分开的数据中心中拥有两台服务器。 如何确保在第一个数据中心发生networking或服务器故障的情况下,进入一个数据中心的所有stream量自动传输到另一个数据库。 任何指导如何完成上述两个问题将不胜感激。
我有一个2节点2012 R2 Hyper-V设置,我正在尝试configurationHyper-V HA。 两个节点的networking设置如下所示: 总计: (8 x Ports): 4 x适配器 – (组队:生产/ VM外部访问)@ 3 x 1Gbps和1 x 10Gbps 团队模式:独立开关 负载均衡模式 :dynamic Stanby适配器:无(所有适配器都处于活动状态) networking: 192.168.100.x 2个适配器 – iSCSI(MPIO)@ 10Gbps networking: 192.168.115.x 1个适配器 – 集群(pipe理,VM迁移和复制)@ 10Gbps networking: 192.168.100.x 1个适配器 – 电话networking@ 1Gbps networking: 192.168.104.x 问题在于故障转移和集群pipe理器(FCM)正在为一个节点select生产networking,为另一个节点select集群。 我希望集群networking专用于pipe理hyper-v,迁移和复制。 我已经在节点上configuration了适配器顺序,如下所示: vEthernet(vSwitch_Production) Team_Production NIC1 – 生产 NIC2 – 生产 NIC3 […]
我遇到了一个有趣的文件服务器传输速度性能问题,我最近在Server 2016中configuration了一个故障转移群集。具体问题是,当我从群集存储path(例如\\ store01 \ share01)访问文件共享时,文件传输速度(特别是写入,似乎)比当我通过当前所有者节点上的本地path(例如\\ srv04 \ e $ \ Shares \ Share01)访问它时要慢一些。 例如,我使用Robocopy复制了499个.txt文件(总计26.07 MB): \\ srv04 \ e $ \ Shares \ Share01:0:0:03 – 635 MB /分钟 \\ store01 \ share01:0:02:20 – 11.286 MB /分钟 无论当前所有者节点或数据从何处传输,都是一个问题。 虽然我当时没有遵循,但是我多less已经按照本指南的指示安装和configuration了服务。 我尝试了几个设置,但他们都回到默认(据我所知)。 我查了一下,没有发现任何特别提到使用故障转移群集的巨大性能问题,所以我一直在做一些随机的研究,没有太多的展示。 关于configuration的一些事情可能是相关的: 该集群目前有两个节点。 两者都运行Server 2016,并且都有两个Nic小组(在Windows中configuration,Switch Independent),每个小组由两个1Gbit连接组成。 正在使用的实际存储是两台机器都通过iSCSI访问的Synology,使用这些指令进行configuration。 其他的一切似乎都能正常工作,仿真故障转移的方式起作用,而另一个节点则需要几秒钟才能完成。 我猜这是对那些比我知道的人更为明显的情况之一。 或者也许我只是希望这一点。 无论哪种方式,我感谢任何指导! 我试图保持简短,所以请让我知道,如果你需要任何其他信息。 提前致谢。
我在试图弄清下面devise的技术细节时遇到一些麻烦; 特别是在冗余负载均衡器领域。 Web服务器运行Windows Server 2003 R2 64并通过IIS提供.NET应用程序。 数据库服务器在具有SQL Server 2008的SQL Server故障转移群集中运行Windows Server 2008 Enterprise 64.目前有两台Web服务器和两台数据库服务器。 我期望完成的是: 自动冗余故障切换,如果负载平衡器发生故障。 无需中断用户即可将Web服务器无缝地从负载平衡组合中进行维护。 我不确定这是因为我们的应用程序的工作方式 – 用户倾向于说,login到应用程序的整个转变。 根据需要扩展Web服务器的能力(不需要现场完成)。 这是一个纯粹的微软商店; 所以不幸的是标准的Linux工具不适用于我们。 我曾经尝试过: 微软的NLB(networking负载平衡服务) :这个方法对于一个简单的解决scheme来说效果相当好,因为它只是在Web服务器上运行,所以相当具有成本效益,但是我还没有find使这个服务符合上述要求的方法。 每当我们试图从负载均衡混合中取出一个系统时,向负载均衡的url / ip发出请求的客户端仍然试图被引导到离线机器。 这可能会造成巨大的问题,特别是考虑到我们的用户将通过这些系统提交客户付款。 也许我们在这里做错了什么 该devise: 那么,考虑到以上所有,Microsoft NLB是唯一的答案吗? 还是有更好的工具可用于我们的情况? 编辑4/21/11 感谢您的快速反馈。 只是为了澄清几点: 这些是Intranet Web服务器 。 他们不接触互联网。 永远。 说服我的老板让我部署一对Linux服务器不会太困难。 她不是Linux环境的障碍 – 这是我们的员工。 他们唯一的技能是Windows。 这将会使我的社交生活在我们的数据中心开始部署Linux服务器。 😉 我最终寻找负载均衡Web服务器的“微软方式”,同时在负载均衡子系统中提供冗余。 如果这真的是微软的NLB服务,那么…也许我应该开始一个新的问题。 🙂 如果这是一个更好(或唯一)的解决scheme,我愿意向硬件负载平衡器开放。
我正在构build一个正常运行时间很关键的Web应用程序。 我明白,100%的正常运行时间是不现实的,但我想达到五个九。 我不确定如何做到这一点的最谨慎的方式。 我的初步计划是在两个地理上分开的数据中心运行的Web应用程序。 “主”数据中心将包含主服务器,这将复制到其他地方未使用的“从服务器”服务器。 如果主数据中心发生停机,DNS故障切换会将stream量转移到“从属”服务器。 这种技术存在挑战,包括一些用户由于奇怪的DNSloggingcaching等而无法访问网站一段时间。 但是,我已经阅读了很多意见,指出DNS故障切换不是一个很好的解决scheme,您应该将所有内容都保存在一个数据中心,并将重点放在冗余。 我看到的问题是,即使是良好的数据中心似乎也有networking问题,可以导致足够的停机时间,打破五个九的期望。 我应该使用DNS故障转移选项吗? 有更好的select吗?
我最近一直在考虑DNS的TTL。 我们有Alogging我们的服务器,然后CNAMElogging面向客户的名字。 例如,www.example.com CNAME指向server-01.example.com。 如果发生故障,我们将CNAME和Alogging的TTL设置为15分钟。 但是,我觉得这可能不是最佳的。 当然应该是Alogging是48小时,CNAME是15分钟。 发生故障时,CNAME只会被指向server-02.example.com。 Alogging(在理论上应该很长时间地被高速caching,因为我们使用CNAME作为切换器)。 环顾互联网,我发现许多人的CNAME长,Alogging短: CNAME和Alogging有不同的TTL。 哪一个会被caching? 这似乎与任何人想要的相反。 问题是,DNS是否按照我希望的方式工作,因为如果我需要快速切换服务器,CNAME请求TTL是非常重要的。