阅读了Docs和RabbitMQ in Action之后 ,创build一个RabbitMQ集群似乎很简单,但升级或修补现有的RabbitMQ集群似乎需要重新启动整个集群。 有没有一种方法来组合集群,铲子,联邦和负载平衡,使滚动升级成为可能,而不会丢失队列或消息,或者我错过了一些更明显的东西?
是否有可能创build一个ZFS集群? 或者你是否需要去GFSTERFSpipe理的UFS格式化池的看似丑陋的(至less对我来说)ZFS路线? 这个想法是看看是否有可能扩展到ZFS应该能够处理而没有打嗝的多Petabyte分布式存储。 任何指针,博客,文章?
我们有一个应用程序正在运行几个(5左右,将增长)框。 所有机器的硬件都是相同的,理想情况下软件也是一样的。 我一直在pipe理他们,直到现在,不想再(静态IP地址,禁用所有必要的服务,安装所需的软件包…)。 任何人都可以平衡以下选项的利弊,或者build议更聪明的东西? 1:单独在所有的盒子上安装centos,并与厨师/ cfengine / puppetpipe理configuration。 这样做会很好,因为我想借口学习使用其中一个应用程序,但是我不知道这是否是最好的解决scheme。 2:使一个盒子完美,并形象化。 通过PXE服务映像,每当我想修改,我可以重新启动一个新的形象的框。 群集家伙通常如何处理/ etc / sysconfig / network-scripts / ifcfg *文件中的mac地址? 我们也使用infiniband,如果hwaddr错误,它也拒绝启动。 这些可以在启动时正确生成吗? 我倾向于PXE解决scheme,但我认为与munin或nagios的监控将会更复杂一点。 任何人都有这种types的问题的经验? 所有服务器都有固态硬盘,速度快而且function强大。 谢谢,马特。
什么时候能够为网站引入高可用性? 高可用性选项有很多文章。 但是,现在是时候从单一服务器切换到高可用性configuration的时候了。 请考虑我的情况: http://www.postjobfree.com是24/7网站与重要的交通: http://www.similarweb.com/website/postjobfree.com 目前,我在单台服务器上运行它:IIS 7.0 Web服务器和SQL Server 2008都在相同的硬件框上运行。 偶尔会有(〜每月一次)~5分钟的停机时间,通常是由某些Windows Server更新所需的重新启动引起的。 通常停机时间是安排在夜间发生的。 尽pipe如此,它仍然令人不快,因为Google Bot和一些用户在晚上仍然活跃。 目前的网站收入约为8千美元/月。 我考虑切换到双服务器configuration(两台Web服务器的Web场和两台硬件服务器上托pipe的两台SQL Server的群集)。 优点: 1)高可用性(理论上没有停机时间)。 即使其中一台服务器出现故障 – 另一台服务器也将接pipe。 2)没有数据丢失:没有SQL集群,在硬件故障(我们每天做备份)的情况下,多达一天的数据可能会丢失。 缺点: 1)更多的努力来设置和维护这样的configuration。 2)更高的托pipe成本。 而不是600美元/月,这将是约1200美元/月。 你会推荐什么?
我正在考虑将我们的一些服务器和应用程序迁移到coreOS环境。 我在这里看到的一个问题是持久化数据的pipe理,因为在将容器移动到新机器时,coreOS不处理Docker卷。 经过一番研究,我发现glusterFS声称是一个集群文件系统,可以解决我所有的问题。 我目前的想法是这样的:我有一个glusterFS容器,作为每个coreOS机器上的特权容器来运行,并公开一个存储,例如/mnt/gluster 。 在我的Dockerfile我指定我的所有卷都应该安装在这个path上。 接下来我考虑的是哪些容器应该获得自己的容量,哪些容器应该共享一个容器。 例如,每个mysql容器都可以获得自己的卷,因为它本身可以处理复制。 我不想乱搞。 服务于同一网站的Web服务器会正确使用像“用户上传的图片”等相同的音量,因为他们无法复制这些数据。 有没有人试过这样的东西,还是有什么我错过了?
我使用nginx和NginxHttpUpstreamModule进行负载平衡。 我的configuration非常简单: upstream lb { server 127.0.0.1:8081; server 127.0.0.1:8082; } server { listen 89; server_name localhost; location / { proxy_pass http://lb; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } 但是使用这个configuration,当2个后端服务器中的一个closures时,nginx仍然将请求路由到它,并且导致超时一半的时间:( 有没有任何解决scheme,使nginx自动路由请求到另一台服务器,当它检测到一个closures的服务器。 谢谢。
大文件树的意思是大约20万个文件,并且一直在增长。 但是,在任何给定的小时内,相对较less数量的文件正在被更改。 通过双向我的意思是可能会发生任何服务器上的变化,需要推到另一个,所以rsync似乎不合适。 远处我的意思是服务器都在数据中心,但在地理上彼此远离。 目前只有2台服务器,但随着时间的推移可能会扩大。 通过实时,可以在同步之间有一点延迟,但是每1-2分钟运行一次cron似乎并不正确,因为在任何给定的小时内文件的一小部分可能会改变,更不用说分钟了。 编辑 :这是在VPS上运行,所以我可能会限制在我可以做的内核级别的东西。 另外,VPS不是资源丰富的,所以我会回避那些需要大量ram的解决scheme(比如Gluster?)。 什么是最好的/最“接受”的方法来完成这个工作? 这似乎是一个普遍的需要,但我还没有能够find一个普遍接受的方法,这是令人惊讶的。 (我正在寻求群众的安全:) 我遇到了lsyncd在文件系统更改级别触发同步。 这似乎很聪明,虽然不是很常见,而且我对各种lsyncd方法有些困惑。 只是使用rsync与rsync,但似乎这可能是脆弱的双向性,因为rsync没有内存的概念(例如 – 知道A上删除的文件是否应删除B或是否是一个新的文件B应该被复制到A)。 lipsync看起来只是一个lsyncd + rsync的实现,对吧? 然后,使用与CSync2的lsyncd ,像这样: http : //www.axivo.com/community/threads/lightning-fast-synchronization-with-csync2-and-lsyncd.121/ …我倾向于这种方法,但csync2有点古怪,虽然我做了一个成功的testing。 我最担心的是,我没有find很多社区确认这种方法。 这里的人们似乎很喜欢Unison,但似乎已经不再处于积极的发展之中 ,并不清楚它是否具有像lsyncd这样的自动触发器。 我已经看到Gluster提到,但可能矫枉过正我需要什么? 更新: fyi-我结束了我提到的原始解决scheme:lsyncd + csync2。 它似乎工作得很好,我喜欢让服务器非常松散地连接的架构方法,以便每个服务器可以无限地自行运行,而不pipe它们之间的链路质量如何。
木偶需要在被pipe理的客户(木偶)和服务器(木偶大师)之间的证书。 您可以在客户端上手动运行,然后到服务器上签名证书,但是如何自动执行群集/云计算机的此过程?