我有很多不同的etcd集群,我想集中控制: 我有多个不同的etcd群集 。 一个群集中的主机不应该有任何访问另一个群集中的configuration。 中央主机应该能够读写所有的集群 ,因为这个主机angular色是查看和控制所有的集群。 我不太清楚如何实现这一点。 运行etcd的单个主机是否可以是多个群集的成员? etcd是否允许我有一个可以与多个群集通信的主机?
我有以下问题:我有两台服务器(英特尔至强3,4 GHZ与32GB内存和RAID 10(4x1TB企业硬盘)。 所有服务器都安装有vmware esxi 5.5(免费)。 webserver,dbserver都是虚拟机器。 第一个是最新的debian x64和apache的web服务器。load:50%第二台服务器是最新的debian x64的mysql数据库服务器。 负载:95% 所以现在我已经订购了两台新的服务器(我想我星期五得到服务器)。 所有四台服务器都通过1 GB的LAN进行内部连接。 目前的网站是: – 一个包含drupal和一个ioncube应用程序的正常网站 – 一个mysql数据库 所以我必须设置一个负载平衡的集群,对吧? 所以专家:你有一些信息或教程如何我可以设置群集罚款? 该项目在2013年开始,但现在这个网站是如此交通intentcive,… 非常感谢你! 许多问候mk
我已经分配了一个项目,在单个raid 1卷的单个服务器上运行sql server。 这种设置工作良好,直到硬件故障导致大约一天的小型企业停机时间。 这个项目没有严格的预算,但不想太疯狂。 我看的第一个选项是带有两个节点的SQL Server集群。 硬件已经可用了,我已经在testing环境中testing了这个设置并取得了很大的成功。 但是,这仍然让我将存储视为一个可能的失败点。 什么是一个很好的select,以配合SQL Server集群故障转移? 软件:Windows Server 2012和Microsoft SQL Server 2012 注意:我确实知道,除了存储故障之外,还有可能导致网卡或交换机故障,造成尽可能多的停机时间,但是,只是为了让我们假设它被照顾。
我想configuration以下多数据中心Cassandra集群: DC-EUROPE有3个Cassandra节点( 1.1.1.3 ) DC-ASIA有3个Cassandra节点( 2.2.2.3 ) 每个DC有一个最终一致的全密钥(1:1)的密钥空间。 运行在DC-EUROPE将始终查询DC-EUROPE ,在DC-ASIA运行的服务将始终查询DC-ASIA 。 数据在每个DC中的3个节点上具有复制因子2 。 我怎么能使用NetworkTopologyStrategy设置这个configuration?
这是我想要的: 两个SL7.1实例,nginx为反向代理 没有共享的文件系统 共享资源: 虚拟IP 运行nginx服务 我已经尝试了keepalived和corosync +起搏器。 keepalived与vrrp-scripts有问题:如果服务nginx正在运行,那么脚本没有检查错误。 所以只有在服务器closures的情况下,故障转移才起作用。 corosync +起搏器有问题,我需要使用fence-agents-vmware-soapconfigurationfencing,这在这里是不可能的(comapany policys)。 reverseeproxy位于DMZ中,并与VMWare主机进行通信,防火墙必须被改变,而不会被拒绝。 你有没有提示,howtos等,再做整个事情? 谢谢
我试图通过drbd和fiesystem在Ubuntu 14.04上启动postgres服务器。 服务状态如下: Last updated: Mon Mar 14 01:16:45 2016 Last change: Mon Mar 14 01:05:53 2016 via cibadmin on node1 Stack: corosync Current DC: node2 (2) – partition with quorum Version: 1.1.10-42f2063 2 Nodes configured 5 Resources configured Online: [ node1 node2 ] Master/Slave Set: ms_drbd [drbd_postgres] Masters: [ node1 ] Stopped: [ node2 […]
我刚才才知道,我们可以在不使用共享存储(SAN)的情况下设置2节点窗口故障转移群集, 在这种情况下,当一个节点上运行的服务在另一个节点上不可用时,如何故障转移到另一个节点? 总而言之,可以在没有共享存储的情况下使服务器故障转移群集工作。 这是否意味着服务是故障切换,并且node2的存储中的数据已经可用? 我在窗口服务器2012 R2
我有一个有1个login节点和100个计算节点的集群。 我可以从login节点ping外部networking,包括google.com。 但是,我不能从计算节点。 计算节点都可以从彼此到达(ping)。 他们也可以pinglogin节点。 (反之亦然) 我应该在哪里检查? (我正在使用CentOS 7) 以下是我的networking状态的一些信息
这是一个多步骤的问题,请耐心等待。 我正在考虑build立一个小的(10-20节点)集群。 但是,我想要正常的程序(不是为集群devise的)能够利用额外的处理速度。 在最理想的情况下,我希望能够在整个集群上运行一个虚拟机pipe理程序。 据我所知,这个问题没有一个好的解决scheme,可以采取正常的程序,并在群集上运行得更快。 因此,我正在集思广益,如何devise这样一个系统,如果可行的话。 看起来,聚类的固有问题是需要更多的时间来移动数据,而不是处理数据。 (即,将一个问题从一个节点转移到另一个节点需要2秒,但在第一个节点上只需要1秒钟就能解决问题)。但是,我想到了一个可能的解决scheme。 我们只是说从理论上讲,群集中的所有节点都可以从同一个磁盘启动。 因此,他们都可以直接访问相同的数据和相同的程序。 其次,我们假设可以修改Linux内核,将每个新的命令发送到不同的从节点,通过所有节点无限循环。 考虑到这两个条件,用户可以login到主节点的terminal,并以正常(非集群)格式运行命令,但命令的负载将会或多或less地均匀分布在集群中。 所以在这个介绍中,我有两个问题: 是否有可能创build一个所有的计算机从一个单一的磁盘(可能是NAS)引导的环境? (我知道PXE,但据我所知,它不提供持久性存储,它只托pipe操作系统。)如果目前是可能的,那怎么办呢? 是否有可能修改内核委托每个新的命令到一个单独的节点? (这可以通过修改bash二进制代替内核本身来完成 – 我不确定)。如果是这样,请详细说明。 这是我曾经在Stack Exchange上问过的最复杂的问题,所以我希望人们在评论中有问题。 但是,如果这个解决scheme实际上可以实施,它可能会彻底改变虚拟化。
在SQL Server 2005和2008中使用多实例故障转移群集(曾经被称为主动 – 主动)时,我想知道你configuration了最小和最大服务器内存。 对于双节点多实例群集(每个节点有两个实例),最佳做法是将每个实例的最servlets器内存configuration为40-45%,以便在发生故障转移时两个实例不最终导致内存数量极度不平衡,因为新实例可能会对已经运行的实例施加不适当的内存压力。 虽然这是一个最佳实践,但我想听到有这种情况的人 – 你为不同的实例configuration了什么内存设置? 你是否让他们平等,或者你在每个实例上运行的工作负载的优先级? 你使用WSRM吗? 您是否根据故障后转移群集configurationdynamic更改内存设置? 谢谢! PS我不需要关于内存pipe理如何工作的信息,或者为什么存在最佳实践 – 我知道所有这一切 – 我对人们在做什么感兴趣。 PPS请注意,我对SQL 2000不感兴趣 – 内存pipe理器没有响应这种内存压力,所以最好的做法是将最大服务器内存设置为每个实例50%。 育。