我们使用Team City 7进行连续集成。 有时我需要closures服务器进行维护,这会引起投诉。 有没有人使用集群,这些types的服务器有一个数据库实例,但可能是前端(Tomcat)应用程序服务器的故障转移群集,这样我就可以在不中断服务的情况下closures服务器? 我在Windows Server 2008 R2上运行它,但是我也开放给Linux解决scheme。
我有一个这样的工作configuration: +—–+ +—–+ +—–+ +—–+ | i1 | | i2 | | i3 | … | in | JBoss Cluster +–+–+ +–+–+ +–+–+ +–+–+ | | | | +———-+—–+—-+—-…—-+ | +—+—+ | httpd | +——-+ | WAN 也就是说, httpd平衡负载并为HA提供JBoss集群。 现在,我需要为httpd提供HA。 如果httpd服务器出现故障,应该使用另一个同一个作业(JBoss集群中的LB和HA)进行备份。 我不知道如何pipe理会话数据,如果两个httpd实例之间的简单HAconfiguration可以正常工作。 有没有人遇到这样的情况?
在这里遇到一些问题,我设置了两台带有Glusterfs的服务器(Centos 6)和它们之间的共享目录,我将nfs目录移动到共享的Gluster文件夹,并在两个框上创build了一个符号链接。 机器可以通过主机名与自己对话,Gluster复制通过服务器之间的另一个以太网卡进行处理。 我遇到的问题是,即使资源故障转移正确(尽pipe似乎在故障转移时出现了几次),我在客户机上得到了过时的nfs句柄。 以下是我的crmconfiguration; 我究竟做错了什么? 客户端上的nfs挂载尽可能简单。 node GlusterFS01 node GlusterFS02 primitive ClusterIP ocf:heartbeat:IPaddr2 \ params ip="10.10.10.167" cidr_netmask="24" clusterip_hash="sourceip" \ op monitor interval="5s" primitive exportfs ocf:heartbeat:exportfs \ params fsid="0" directory="/GlusterFS/Files" \ options="rw,sync,no_subtree_check,no_root_squash" \ clientspec="10.10.10.0/24" \ wait_for_leasetime_on_stop="false" \ op monitor interval="5s" \ op start interval="0s" timeout="240s" \ op stop interval="0s" timeout="100s" \ meta is-managed="true" target-role="Started" primitive […]
需求 对于具有4个静态IP互联网租用线路连接的networking链接到托pipe网站。 目前有哪些策略可以用来确保互联网连接失败时的高可用性? 如果这是可能的,怎么样? nslookup sampleWebsite.com Server: sampleWebsite.com Address: 111.111.111.11 Non-authoritative answer: Name: sampleWebsite.com Addresses:111.111.111.11 222.222.222.22 333.333.333.33 444.444.444.44 build立 服务器 – Windows Server 2012 互联网连接 – 标准光纤4Mbps连接 防火墙 – 商业防火墙设备 注意 尝试了ServerFault & WebMasters ,但找不到类似的问题 类似的,但他们的解决scheme? 为什么不build议DNS故障转移? 浏览器如何处理多个IP
我正在编写一个软件,允许configuration参数以与主和辅助RADIUS服务器进行身份validation。 根据您的经验,服务器pipe理员通常或不是通过巧妙的路由布局networking,因为我可以设想负载平衡或者导致这种情况 – 主要服务可以在Host1上运行:端口1及其在Host1上的冗余备份:端口2? 还是应该禁止用户在同一台主机上configurationPrimary和Secondary,而不考虑端口号?
我正在使用HAProxy进行负载均衡,并将JBoss EAP用作应用程序服务器。 Haproxy服务器configuration为将传入请求路由到应用程序服务器。 如何将Jboss EAP和HAproxy集成到集群和负载平衡,以便在服务器上复制会话?
是否可以防止pcs / dlm / crm在节点失败时屏蔽该节点? 我只使用集群来构buildGFS2存储,并有我自己的方式来避免裂脑。 所以我不需要诸如fence和dlm-locks之类的东西。 我尝试在CentOS7中通过以下方式configurationon-fail操作:使用pcs resource update dlm/clvmd/gfs2_res op monitor onfail=ignore并编辑文件/etc/corosync/dlm_cfg ,编辑on-fail="ignore"并重启所有节点。 重启后,我可以从pcs cluster cib检查,所有的“fence”都变成了“ignore” 但是当我杀死一个节点中的corosync时,另一个节点仍然试图去阻止它,就像从消息日志中看到的那样。 3月5日10:37:10 node0 stonith-ng [1733]:notice:remote_op_done:node3对node3的操作重启为[email protected]:没有这样的设备 3月5日10:37:10 node0 crmd [1739]:notice:tengine_stonith_notify:对于node3,Peer3没有被node3终止(重新启动):客户端stonith_admin没有这样的设备(ref = a7be5018-4894-4de2-9273-8867d034d7af)。 controld.24862 我只是想知道是否有办法完全避开围栏? 这只是给我的系统带来了很多麻烦。
伙计们, 我试图用多个运行nginx的虚拟机来replace单个老化负载均衡器。 然而,在我安装了centos 7和nginx之后,我意识到心跳已经被弃用了。 所以我开始着眼于corosync和pcs来设置和pipe理HA群集。 我在集群中设置节点,并为每个我想使用的webapp添加一个虚拟ip的资源。 当我检查状态时,问题变得明显 [root@vlb1 nginx]# pcs status Cluster name: webapps Last updated: Thu Mar 5 21:27:03 2015 Last change: Thu Mar 5 16:43:22 2015 via cibadmin on vlb1.domain.com Stack: corosync Current DC: vlb2.domain.com (2) – partition with quorum Version: 1.1.10-32.el7_0.1-368c726 2 Nodes configured 2 Resources configured Online: [ vlb1.domain.com vlb2.domain.com ] […]
当通过ARR POST一个大文件时,请求在120秒后超时。 客户端收到错误代码502 Bad Gateway 。 我已经configurationweb farm的“代理超时”为600秒。 我还configuration了Default Web Site的Connection time-out为600秒。 ARR服务器已经重新启动。 以下是来自ARR服务器上的日志文件: 2015-05-07 13:25:16 192.168.87.155 POST /Redacted/Import/RedactedImport20150507_152313.csv X-ARR-CACHE-HIT=0&X-ARR-LOG-ID=253daa4a-8372-405a-8efd-21ebbc38353f 80 – 192.168.87.198 – redacted.local 502 3 64 120436 从applicationHost.config: <webFarm name="redacted.local" enabled="true"> <server address="redacted.local" enabled="true" /> <applicationRequestRouting> <healthCheck url="http://redacted.local/redacted.svc" liveTrafficFailureCodes="400-" /> <protocol timeout="00:10:00" /> </applicationRequestRouting> </webFarm> 背景: 我正在构build一个使用ARR的PoC,以实现我们的后端服务(主要是WCF(基本HTTP)和REST)的负载均衡和高可用性。 其中一项(REST)服务用于每天从批处理作业中接收大量(ish)文件。 REST服务在文件处理完成之前(可能需要5分钟)才会返回,因为客户端应用程序需要知道处理完成的时间(接下来的更多步骤取决于第一个步骤)。
我正在试用SLES 12 w / HAE来运行由两个节点组成的文件服务器群集。 想法是使用SCSI持久预留作为使用stonith fence代理的fence_scsi脚本的防护方法。 两个节点(a,b)通过FC连接到同一个LUN,然后通过NFS从主动节点导出。 问题是与fence_scsi crm失败/抱怨nodename /键没有提供。 primitive storage-fence stonith:fence_scsi \ params action=off devices="/dev/mapper/mpath_test" \ op monitor interval=60s timeout=0s 我结束了: storage-fence_start_0 on fs009a 'unknown error' (1): call=18, status=Error, last-rc-change='Wed Jun 17 00:51:40 2015', queued=0ms, exec=1093ms storage-fence_start_0 on fs009b 'unknown error' (1): call=18, status=Error, last-rc-change='Wed Jun 17 00:56:42 2015', queued=0ms, exec=1101ms 和 […]