Articles of 集群

红帽群集故障转移通知?

当集群故障时,是否有通知/设置通知mechanizem?

在ubuntu 12.04上使用mod_jk:status页面设置一个简单的tomcat6集群的混乱将不会显示

当在干净的Ubuntu服务器12.04中设置2个tomcat6实例集群时,有点困惑。 我没有安装默认的tomcat6我用tomcat6-user的tomcat6-instance-create来创build2个实例。 我正在使用blogs.encodo.ch教程,不幸的是,我还没有遇到任何使用Ubuntu的教程如何configurationapache2像ubuntu 12.o4。 我的意思是,ubuntu使用的sites-available/enabled文件夹和mods-available/enabled 。 我已经安装了libapache2-mod-jk和mods-enabled了jk.load,jk.conf。 server instance-1 uses port 8081 for http, port 8009 for ajp with jvmRoute="worker1" and instance-2 uses port 8082 for http, port 8010 for ajp with jvmRoute="worker2" #/etc/apache2/workers.propeties worker.list=loadbalancer,jk-status #setup instance-1 worker.instance-1.port=8009 worker.instance-1.host=localhost worker.instance-1.type=ajp13 #worker.instance-1.lbfactor=50 #setup instance-2 worker.instance-2.port=8010 worker.instance-2.host=localhost worker.instance-2.type=ajp13 #worker.instance-2.lbfactor=100 #setup the load-balancer worker.loadbalancer.type=lb worker.loadbalancer.balance_workers=instance-1,instance-2 worker.loadbalancer.sticky_session=True #worker.loadbalancer.sticky_session_force=True # […]

Haproxy :代理服务器场没有服务器可用

我想用haproxy设置集群,我有一个负载平衡器和两个节点。 一些如何haproxy只采取一个节点。 它运行良好,直到一个XXX.XX.X.196启动并运行,但只要我closures它,并尝试再次启动haproxy它给了我这个错误。 当XXX.XX.X.196上的tomcatclosures时,我不处理请求,但是我仍然在XXX.XX.X.193上启动并运行了tomcat。 XXX.XX.X.189:负载平衡器 XXX.XX.X.193:节点1,运行Apache tomcat XXX.XX.X.196:节点2,运行Apache tomcat global log 127.0.0.1 local2 debug #log using syslog service on localhost maxconn 4096 # Total Max Connections. This is dependent on ulimit daemon defaults mode http maxconn 4096 clitimeout 60000 srvtimeout 30000 contimeout 4000 option httpclose # Disable Keepalive log global option httplog listen farm XXX.XX.X.189:80 […]

2008群集服务(SQL)到2008 R2群集服务

我发现很多文章用于在SQL 2008到SQL 2008 R2的集群环境中升级SQL。 但是,我还没有find关于将运行多个SQL版本的当前Server 2008故障转移群集迁移到Server 2008 R2故障转移群集的许多信息。 由于您无法将2008 R2服务器join到2008故障转移群集,因此,该过程是什么?

如何configurationcluster.conf用于故障转移路由两个networking?

我在一个具有互联网连接的“外部”子网和两个“内部”子网之间进行路由,在运行CentOS 6.4的Linux机器上使用iptables转发: 我想现在使用红帽集群套件( rgmanager和cman )将此路由器复制到HAconfiguration中: 使用此cluster.conf可以在两台主机之间获得浮动IP地址: <resources> <ip address="192.168.1.1" monitor_link="1"/> <ip address="192.168.2.1" monitor_link="1"/> <ip address="192.168.3.1" monitor_link="1"/> </resources> <service autostart="1" name="ha-routing" recovery="restart"> <ip ref="192.168.1.1"/> <ip ref="192.168.2.1"/> <ip ref="192.168.3.1"/> </service> 但是,如果其中一个内部networking出现故障,整个服务将无法启动,有效的解除了其他networking的连接。 我尝试将IP分离成单独的服务,都使用外部IP: <service autostart="1" name="ha-routing-a" recovery="restart"> <ip ref="192.168.1.1"/> <ip ref="192.168.2.1"/> </service> <service autostart="1" name="ha-routing-b" recovery="restart"> <ip ref="192.168.1.1"/> <ip ref="192.168.3.1"/> </service> 在这种情况下,如果内部networking出现故障,集群服务将closures,外部地址将被删除,所以似乎仍然会杀死其他内部networking。 双方为两个networking获得故障转移路由的最佳configuration是什么?

有没有可能通过加速networking文件系统像unionfs,aufs?

我需要使用本地SSD驱动器加速缓慢的大容量存储。 我想通过union文件系统可以做到这一点。 这里是nginx读取数据的结果: 单独的本地SSD:〜140个交易/秒。 单独的大caching:约25个交易/秒 本地固态硬盘aufs-与本地目录和空目录:约30交易/秒 本地固态硬盘aufs-与本地目录和大型慢速存储目录:约30交易/秒 本地固态硬盘overlayfs-与本地目录和大型慢速存储目录安装:〜140个交易/秒 正如你所看到的,我的瓶颈是aufs。 本地+大容量慢速存储的Overlayfs可以和本地硬盘一样快,但这是因为它不允许底层文件系统发生变化(所以不适合我)。 你有什么其他的想法如何解决这个问题?

有没有一种编程方式来确定Linux服务器上的可用磁盘空间?

我有一组Linux服务器,每台服务器都有一个带有/ tmp目录的本地硬盘驱动器。 有时,服务器上的/ tmp目录将填满并导致错误。 我想自动检查每个本地驱动器上的可用空间,以便在导致问题之前清除/ tmp。 有没有一个优雅的,编程的方式来确定Linux上的磁盘上的可用空间量? 我知道“古典”的答案是运行 df -h 在每台服务器上(可能使用分布式shell工具,如dsh ),并编写脚本来parsing输出。 许多这样的脚本可以在网上find 。 我正在寻找一个更优雅的解决scheme,比如一个更新的磁盘实用程序,它返回结构化数据,或埋藏在/ proc文件系统中的一些信息。

Windows群集之间的防火墙规则

我已经完成了在两个Windows群集之间定义防火墙规则的任务。 第一个集群托pipe集群中间件应用程序,第二个集群托pipeSQL Server。 这两个集群位于networking的不同部分,并由物理防火墙隔开。 Windows防火墙已closures。 我有点困惑,我必须在两个集群之间的防火墙规则中包含哪些IP。 事实上,每个集群都有: 1虚拟IP(我的意思是IP提供给集群资源) 2物理IP(我的意思是给予群集的物理节点的IP,每个群集有2个物理机在主动/被动configuration)。 例如,假设我需要打开RPC端口(TCP PORT 135),是否需要为每个IP组合(总共3 * 3 = 9个规则)创build1个规则? 或者所有的stream量都通过虚拟IP,这样我就只有1个规则来定义? 任何帮助,甚至链接到networkingstream量如何在Windows群集之间的一些在线资源将不胜感激。

PostgreSQL复制滞后于Ubuntu 11.10 / 12.04

我有一个运行在Amazon AWS EC2实例上的PostgreSQL集群,启用stream式复制和“热备份”选项。 我现在正在逐渐将其从Ubuntu 11.10升级到Ubuntu 12.04 LTS,而我刚刚开始使用一些slave实例。 我不明白为什么,但从Ubuntu 11.10到12.04似乎复制滞后差异很大。 这些实例位于相同的区域,可用区域,相同的types,相同的EBS磁盘IOPS …. 这两个实例之间的差异是: Ubuntu发行版:从3.0.0-30到3.2.0-52精确到 – >内核 PostgreSQL包:相同的存储库(launchpad.net/~pitti/+archive/postgresql),相同的代码版本(9.2.4-0ppa1)只是不同的操作系统版本(oneiric到精确) 复制延迟的计算方法如下: SELECT EXTRACT(MILLISECONDS FROM now() – pg_last_xact_replay_timestamp()) 下面是过去12小时的图表(这里的趋势并不那么糟糕): http://i.imgur.com/vhHidMD.png http://i.imgur.com/aYiySFZ.png 有什么我不明白的吗?

RabbitMQ和联邦。 跨数据中心虚拟队列?

我正在使用现场/备用模型构build一个位于两个数据中心的弹性系统。 系统需要一个消息队列来传递消息供系统后端处理。 我现在的devise要求将消息队列(和交换等)作为一个虚拟队列在两个数据中心之间共享。 这样,可以通过closures站点A中的队列消费者并在站点B中启动它们来实现故障转移 – 消费者只需订阅其本地代理并绑定到单个全局交换并开始接收在那里发送的消息,包括那些在故障转移发生时排队。 我过去曾经使用过RabbitMQ,并且知道它可以进行群集,并且群集不适合广域网连接 – 这是非常不能容忍丢包/networking分区的。 我已经阅读了rMQ联邦插件,这似乎意味着两个联邦经纪人可以允许他们的交易所被相互连接的客户绑定。 我不确定是否可以使用它来实现我所需要的,似乎我需要每个DC代理来定义一个交换,联合两个代理,然后每个站点上的客户需要绑定到两个由本地经纪商托pipe的交易所以及托pipe在远程经纪商的交易所。 每个交易所对某个特定的经纪商而言仍然是本地的。 我理解正确吗? 第二个问题 – 大概联邦插件与单独的rMQ集群一起工作? 如果我在A地点有一个rMQ经纪人集群,B地点有类似的集群,我可以把他们联合起来吗?