我有一些Nginx的服务器共享他们的configuration,因为他们在一个负载平衡器池。 所以我有一个独特的configuration,所有的服务器和所有的服务器正在侦听*:80和*:443地址。 但是,这对我不支持SNI的客户端(如Windows XP)上的SSL证书造成了一些问题。 为了解决这个问题,我应该为每个SSL网站指定一个不同的IP地址,但是当然这不同于池中的每个服务器。 你有一些build议吗? 我可以指定多个IP在同一台服务器上,而不会导致错误的情况下Nginx无法绑定其中之一? 非常感谢你!
众所周知,与2005/2000年相比,SQL 2008的群集设置,维护和底层机制已经发生了很大的变化。 尽pipe这个问题属于2005-2008年在微软负责的存储引擎部门,但我并没有深入参与,而且我还没有build立这样的集群。 我有一堆testing硬件,现在在我的名单上。 最近几次,我曾经为Microsoft教过一个关于HA技术的概述,当我在Win 2008集群上build立一个SQL 2008的时候,我听到了一些很好的经验,我从来没有时间在需要注意的地方做大量的logging。 所以我的问题是 – 如果你已经设置了这个configuration,你遇到了什么问题,你是如何克服的? 这会帮助我节省很多时间,我也会在我的博客上公布结果。 非常感谢。 PS我想这是一个“你打什么问题”的标题,但我得到了“主观性问题”的警告。
我正在尝试在EC2服务器中设置高可用性的数据库架构。 我们现在被迫使用SQL 2005。 什么样的解决scheme在这方面起作用? 有没有人做过? 我找不到在AWS中设置主动 – 主动群集的方法。 我的另一个想法是使用复制,但我们需要一个NLB或前面的东西来无缝地在数据库服务器之间进行交换。 我确定这是别人必须解决的问题,别人做了什么?
我正在寻找最好的方法(主要是硬件方面)的build议,在预算(比如2000英镑到3000英镑)上build立一个高速负载平衡服务器集群来托pipeWeb服务,数据库服务器和通用文件系统。 所有在Linux上。 对于Web服务器,我知道我想用apache来设置IPVS,但我不知道花在硬件上的最佳方式。 我会设想有一台机器(理想的备份)接受来自互联网的请求,并在apache服务器arrays中对这些请求进行负载平衡。 arrays中的每个服务器都可以共享一个通用文件系统。 到时候,我会添加更多的服务器arrays,以增加容量。 系统在负载平衡器中始终是瓶颈。 我需要什么样的机器才能支持非常高/不那么高的stream量? 哪个更重要 – 处理器/内存 对于apachearrays中的机器,我要做什么 – 更多的处理器,更快的处理器,更多的内存等 – 这是最重要的,如果我打算添加更多的机器 为了提供可伸缩性(易于添加更多的磁盘空间)和性能(因为它也是一个瓶颈),实现共享文件系统的最佳方式是什么? 在这里我想要软件和硬件的build议。 每种不同任务的机器成本/性能估算。 任何有关这种交通量的想法,您可以使用此设置为给定数量的机器提供服务。
我已经build立了apache-tomcat集群(Ubuntu服务器),并且我在链接之后使用了tomcat支持的mod_jk集群技术。 我已经设置了一个负载平衡器和两个Web服务器。 主要的问题是部署WAR文件和哪个Web服务器? 我已经了解了将战争文件部署到群集中的其他tomcat服务器的Farmed Deployment,但是我还没有完成它。 我在两个Web服务器的元素中以下面的方式使用了农场部署者。 Web服务器1(192.168.1.101) <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" tempDir="/usr/share/tomcat/temp/" deployDir="/usr/share/tomcat/webapps/" watchDir="/usr/share/tomcat/watch/" watchEnabled="true"/> Web服务器2(192.168.1.102) <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" tempDir="/usr/share/tomcat/temp/" deployDir="/usr/share/tomcat/webapps/" watchDir="/usr/share/tomcat/webapps/" watchEnabled="false"/> 我将WAR放在Web服务器1的监视目录中,但不会部署到其他服务器。 任何人得到这个工作,我做错了什么?请让我知道! 谢谢! 更新:1 我可以在catalina.out日志中的任一台计算机上看到以下信息, 14 Aug, 2011 9:12:11 PM org.apache.catalina.ha.deploy.FarmWarDeployer start SEVERE: FarmWarDeployer can only work as host cluster subelement! 它甚至不部署到webserver1,也不部署到webserver2。 访问网站时出现404错误。 还有什么帮助? 还有一件事,我没有从apt库安装tomcat,但是我从源码中构build了它,这对我们的java应用程序来说是完美的。
我在ubuntu服务器上用mod_jk设置了apache-tomcat集群。 我有FarmDeployer部署战争文件到集群中的其他Web服务器的一些问题,我有一些希望,因为我张贴,并得到FarmDeployer在这里工作。 战争部署人员完全可以从post的下面的configuration工作,但不能信任地工作,因为它有时会访问页面时出现404错误: <Host name="localhost" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"> <Channel className="org.apache.catalina.tribes.group.GroupChannel"> <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver" address="192.168.1.4" port="4000" selectorTimeout="100" maxThreads="6"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.StaticMembershipInterceptor"> <Member className="org.apache.catalina.tribes.membership.StaticMember" port="4000" securePort="-1" host="192.168.1.2" domain="staging-cluster" uniqueId="{0,1,2,3,4,5,6,7,8,9}"/> </Interceptor> </Channel> <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" tempDir="/usr/share/tomcat/temp/" deployDir="/usr/share/tomcat/webapps/" watchDir="/usr/share/tomcat/watch/" watchEnabled="true"/> </Cluster> </Host> 以下是configuration(从tomcat集群文档)完美的HA和LB集群。 But it fails in Farm Deployer并且没有logging为什么农场部署者不工作。 <Host name="localhost" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> […]
背景: 我在工作中使用了一个计算集群(4个从节点和1个头节点),它使用SGE作业调度程序。 最近我们一直在运行一些负担很重的IO,它减缓了shell / vim的使用(小的IO,但是我们需要它一天24小时运行)。 我发现ionice,它似乎是一台计算机的完美解决scheme,但我不确定它会对群集有帮助。 题: 如果我使用ionice设置(-c2 -n0)通过头节点运行一个进程(比如说vim),它是否还会优先于其他计算机上的进程(从服务器上的高IO(-c2 -n4))到共享HD ? 谢谢你的时间!
我有权访问研究HPC群集,该群集经过configuration,以便如果您的作业尝试使用比节点可用的内存多的节点,则会导致节点崩溃并自动重新启动。 这似乎是常见的做法,例如见https://www.osc.edu/documentation/knowledge_base/out_of_memory_oom_or_excessive_memory_usage 为什么要这样configuration,而不是被configuration为只是终止需要太多内存的进程? 在这两种情况下,你都会失去这份工作,但是对于整个集群来说,后者似乎会更好,因为节点可以更快地重新使用。 或者操作系统无法保证在这种情况下恢复内存?
我需要为Apache网站设置双节点Web群集。 我有Hyper-V基础架构,只有两个节点。 这些要点是负载平衡和高可用性。 我使用CentOS 7,Pacemaker集群,MariaDB 10安装和configuration了两台虚拟机。我在Pacemaker中configuration了主/从ocf :: percona:mysql资源。 接下来,我需要一个网站内容的共享存储。 我在双主模式下创build了DRBD磁盘,在其上创build了GFS2。 我没有增加Pacemakertesting它。 一切运行良好,但为了使其自动提升,我需要通过Pacemakerpipe理这些。 问题是,Pacemaker需要栅栏来创buildDRBD资源,但是没有用于Hyper-V的stonith代理。 我在之前的CentOS 6版本中看过,可以创buildSSH stonith代理。 我试图做到这一点,但个人电脑不适用于它。 现在可以在Hyper-V之上使用Pacemaker吗? 或者可能存在另一种在双基层中使用DRBD的方法?
我最近和我的老板就在Linux集群中的计算节点上分发可执行二进制文件的正确方式存在分歧。 所有的计算节点都运行发行版和相同的版本(特别是Ubuntu 14.04)。 目前的方法是在主节点的所有计算节点上安装nfs共享,并将所有可执行文件(和依赖关系)安装到所述目录中。 通常有10-20个不同的可执行文件,每六个月升级一次。 我相信我们应该把deb软件包部署到计算节点上,但是由于我是集群新手,我觉得我只是在夸夸其谈。 所以我要求提供有关“正确”的方式来部署和升级二进制文件到计算节点的反馈和build议。 谢谢!