我们有两台催化剂2960和四台linux服务器,我们希望连接到两台交换机(每台服务器与每台交换机有一条链路)。理想情况下,我们正在寻找无缝故障切换,以防单个交换机脱机。 我们已经推测以太信道是一个可能的解决scheme,但显然2960s不支持交叉交换以太信道。 这里有什么我们完全忽视的东西,或者是像2960s那样的能力?
我正处于使用SQL 2008实现高可用性解决scheme的早期阶段。 关于数据库镜像,我认为在同步模型下,在主服务器上事务不会在镜像服务器上提交之前被提交。 如果主体服务器出现故障,则可以使用手动执行的见证实例自动进行故障转移。 在这种模式下,如果镜像服务器失败会发生什么? 委托人不能交易吗? 还是镜子破了? 我担心校长是在镜子的摆布下。
我正在寻找在以下configuration中设置故障转移 – 故障转移服务器(前端) 主服务器 – 辅助服务器(主服务器失败时使用)(后端) 所以stream量进入故障转移,然后在主服务器启动的情况下被redirect到主服务器,否则将被路由到备服务器。 首先,这是实现我所尝试的最好的方法,其次,如果前端失败了呢?
我有一个Linux TFTP / PXE服务器的工作。 如果我在192.168.245.1这是TFTP服务的地方设置故障转移,则客户端失败, tftp open timeout 。 我正在testing tftp 192.168.245.1 tftp> binary tftp> get /ltsp/i386/pxelinux.0 我使用的故障转移是ucarp创build一个虚拟的IP地址,它广播。 当192.168.245.1是一个真正的IP时,它是有效的,当192.168.245.1是一个虚拟IP,那么客户端不能访问它。 题 使用ucarp和TFTP时有什么特别的事情要做? 更新 该post已经更新,原来的post有一个DHCP服务器怀疑的问题。 这是来自/etc/network/interfaces ucarp部分。 Ubuntu服务器 auto eth1 iface eth1 inet static address 192.168.245.1 netmask 255.255.255.0 gateway 192.168.245.1 broadcast 192.168.245.255 ucarp-vid 3 ucarp-vip 192.168.245.5 ucarp-password secret ucarp-advskew 10 ucarp-advbase 1 ucarp-master yes iface eth1:ucarp inet […]
1)keepalived的(物理/networking)要求是什么? 两个(或更多)keepalived节点是否需要连接到同一个交换机? (可能与广播有关)。 2)keepalived节点可以运行在不同的networking,“互联网”networking? 3)keepalived取决于路由器? (据我所知,虚拟IP应指向连接两个节点的真实路由器/交换机)。 4)keepalived“服务无关”? – > keepalived的参与领域是什么? 只有IP? 还是服务/协议导向? – >它只处理IP,或者它是为HTTPdevise的? – >换句话说,我可以用它来定制(基于networking)的应用程序? 5)有多个故障转移服务器? 如果问题#4的答案是“是”,即它取决于服务types,那么是否有任何一般的select? 最好容易安装/configuration:)
我有两个真正的服务器,在不同的子网上,每个服务器都有一个永久的IP地址,并且有一个故障切换IP,可以被任何一台服务器使用。 主机提供了一个API,可以将故障转移IP分配给任何服务器。 所以我需要在每台服务器上运行一个守护进程,这将监视本地服务器的运行状况,同时与另一台服务器上的对应端进行通信,这样两台服务器(或者只有一台其他失败)决定谁将获得故障转移IP(并运行一个脚本来告诉主机的API来适当地路由它)。 keepalived不能这样做,除非(据称)与威利Tarreau的单播补丁, 我已经尝试失败 。 另外,守护进程最好不要试图从networking接口取得或释放IP; 首选设置是两台机器的接口始终具有故障转移IP地址。 heartbeat可以做吗? 还有其他类似的程序可以吗? 我已经写了自己的守护进程,它确实工作正常,但是如果现有的程序可以做到,我认为没有理由维护它。
我目前正在咨询一家小型工程公司,他们一直在使用单台服务器满足他们所有的域需求,而且当老化的硬件出现故障时,他们的pipe理层已经厌倦了无法从服务器访问networking共享 我购买了两台新的HP ProLiant服务器,用于运行Server 2008 R2 Standard的文件服务,并使用FreeNAS将其旧硬件修复为2个SAN盒。 最初在试用一个解决scheme时,我运行了一个DFS命名空间,两台服务器都作为节点。 主服务器通过iSCSI连接到SAN,然后复制服务将文件复制到辅助服务器(到本地驱动器)。 显然,由于脑裂等问题,不可能(或不推荐)将第二台服务器连接到与主服务器相同的iSCSI卷上。如果主服务器将数据复制到主服务器上,似乎毫无意义地使用SAN辅助服务器本地磁盘,我不能共享iSCSI目标在服务器之间共享数据。 我想通过NAS协议将两台服务器连接到文件级别的FreeNAS框,并且在服务器上configurationDFS,以便在主服务器不可用的情况下只使用辅助服务器。 而不是服务器将驱动器视为本地磁盘(正如他们使用iSCSI),我打算将它们映射为networking驱动器。 在文件级别执行此操作似乎可以缓解在两台服务器之间共享iSCSI目标的问题。 我对SAN / NAS设备和FreeNAS并不陌生,但在这样的部署中使用它对我来说是新鲜事物,所以我不能完全确定这是否会起作用,或者如何执行等等。 这是正确的方式去做这个? 我在网上find的所有这些指南都可以在虚拟机上find,并且有一些故障转移pipe理器,所以我没有太多的信心去遵循那些没有故障转移pipe理的想法。 谢谢!
我正在使用apache2 mod_proxy和mod_proxy_balancer来平衡负载到不同服务器上的4个独立的tomcat8实例。 我为每个tomcat实例使用不同的AJP端口,并在tomcat server.xml使用jvmRoute指令,如下所示:第一个实例: <Connector port="[port1]" protocol="AJP/1.3" redirectPort="8443" /> <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat1"> 第二审: <Connector port="[port2]" protocol="AJP/1.3" redirectPort="8443" /> <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat2"> 等等。 在apache2configuration中,我定义了一个集群,像这样: <Proxy balancer://myCluster> BalancerMember ajp://[ip1]:[port1] route=tomcat1 loadfactor=1 BalancerMember ajp://[ip2]:[port2] route=tomcat2 loadfactor=1 BalancerMember ajp://[ip3]:[port3] route=tomcat3 loadfactor=1 BalancerMember ajp://[ip4]:[port4] route=tomcat4 loadfactor=1 ProxySet lbmethod=bybusyness ProxySet stickysession=JSESSIONID Order Deny,Allow Deny from none Allow from all […]
我们正在将所有服务器(或虚拟化物理服务器)迁移到通过MPLS连接的中央数据中心。 目前,我们在大多数方面都是完全冗余的–RDS Farms,SQL群集,多个DC,防火墙硬件故障转移等。群集本身是一个4节点的ESX群集。 然而,文件服务器是一个臭名昭着的痛苦,以实现某种forms的冗余,如果虚拟机崩溃或失败,无论出于何种原因。 当然,如果我们使用Hyper-V,像CAF这样的SOF可以工作,但VMWare会留下更less的选项。 DFS是否真的是足够健壮的文件服务器冗余方法?如果是这样,那么人们对其configuration的build议是什么? 或者人们采取什么策略来实现这一目标?
我只是在将我们的3节点Hyper-V群集从2008R2升级到2012R2的一些build议/提示之后。 我有3台运行Server 2008R2DC的Dell r710。 这些是群集和运行约15虚拟机(每个主机上5)。 我们有2个Dell Equalogic SAN存储VM VHD。 首先,我们计划首先将主机升级到2012R2,让他们运行我们的2008R2虚拟机。 我假设2012R2上的Hyper-V可以运行VHD(以及新的VHDX)格式,运行2008R2 VM / guest OS的问题不是问题? 我正在考虑在每个节点上运行一个更简单的过程。 从我读过的和在网上find的,我认为其中的要点是我可以closures所有的虚拟机。 断开每台主机上的iSCSI连接,然后从集群pipe理器中逐出每个节点。 一旦被驱逐,我可以将主机升级到2012 R2并创build一个新的群集。 我能否重新连接所有iSCSI目标,将磁盘添加到池中,并从之前的configuration文件和VHD(在2008R2中创build)导入VM? 任何有经验的人都可以告诉我他们是怎么做的,他们会推荐什么来升级3台2008年的主机? 停机对我们来说不是问题。 如果需要,我们可以在这个过程中closures所有的虚拟机。 非常感谢先进。