浏览了几个网站,现在看来,所有的hyper-v集群都是基于CSV(集群共享卷)构build的。 我有一个当前的设置(2节点窗口故障转移群集)。 我在节点1上运行2个虚拟机,每个虚拟机都在自己的群集磁盘上运行 clusterdisk1上的vmA(owner-node1)(owner-node1) clusterdisk2上的vmB(owner-node1)(owner-node1) 我在自己的集群磁盘上也有1个虚拟机在节点2上运行。 clusterdisk3上的vmC(owner-node2)(owner-node2) q1)node1中的VMS可以运行在同一个集群磁盘上吗? (例如clusterdisk1)? q2)当node1发生故障时,node2将占用clusterdisk1,2的所有权并启动VM; 那么使用clusterdisk和CSV有什么区别呢? 我正在使用窗口服务器2012 R2
Active Directory域如何join计算机(本地MS Windows或带有winbind的Linux)确定最接近的密码服务器? 这个问题意味着在不同位置有一个拥有2+ Active Directory服务器的集群。 在Windows上,没有明显的选项可以select使用哪个Active Directory服务器进行身份validation等。 在Linux上 (使用samba / winbind)有一个smb.cfg(“密码服务器”)的设置,但它是可选的(当与设置“security = ads”结合使用时)。
我有兴趣了解用于pipe理许多Linux机器的工具和技术。 (即部署和维护更新。) 我想到的一个方法是编写一个Bash脚本,将另一个脚本上传到服务器,然后按顺序为每个服务器执行脚本。 例如: foreach server { connect to server and scp update_script.sh to ~/scripts ssh user@server -e "sh ~/scripts/update_script.h" } 而update_script将使用apt-get/aptitude或yum ,或者其他来更新服务器上的软件包。 有没有更好的方法来做这样的事情?
我一直在阅读很多关于高可用性虚拟化的知识,无论是通过Hyper-V还是VMWare。 在这种情况下,基本上高可用性意味着虚拟机由一个物理服务器(节点)集群托pipe,所以如果其中一台物理服务器出现故障,虚拟机仍然可以由其他物理服务器提供服务。 到目前为止,物理集群和虚拟机本身都是高度可用的。 但是,如果提供的服务是SQL Server,MSDTC或其他服务,实际上是由VM镜像和虚拟化操作系统提供的。 所以我想像在虚拟层还有一个没有被说明的失败点。 虚拟机本身可能会发生物理集群无法解释的问题,对吗? 在这种情况下,物理故障转移群集(Hyper-V)或VMWare主机无法进行故障转移,因为问题不在于物理群集中的某个服务器 – 通过物理节点故障转移将无济于事。 这是否需要在物理上创build虚拟故障转移群集,或者这不是必要的? 或者,我想你可以跳过物理聚类,并在虚拟层集群(基于子故障转移集群),因为它应该仍然存在物理故障。 请参阅下面的图像,显示父母(左),基于孩子(右)和组合(中)。 只要你需要去基于父母,还是基于孩子更合适?
我有一个两节点群集心跳和DRBDpipe理一个MySQL资源。 如果我暂停主服务器,重新启动服务器或断开networking连接,则故障切换会很好。 但是,如果主服务器遇到内核恐慌(通过运行echo c > /proc/sysrq-trigger模拟),则辅助服务器不会echo c > /proc/sysrq-trigger资源。 这是次要的心跳日志看起来像: Jul 11 21:33:32 rad11 heartbeat: [7519]: WARN: node rad10: is dead Jul 11 21:33:32 rad11 heartbeat: [7519]: info: Link rad10:eth0 dead. Jul 11 21:33:32 rad11 heartbeat: [8442]: info: Resetting node rad10 with [Meatware STONITH device] Jul 11 21:33:32 rad11 heartbeat: [8442]: ERROR: glib: OPERATOR INTERVENTION […]
我正在尝试确定文件系统用于共享存储设备的“最佳select”,该共享存储设备将通过iSCSI跨越不确定数量的服务器进行安装。 build立: 27TB Synology RS2212 +arrays,允许多个会话的iSCSI LUN /目标 基于10-20 CentOS的Linux机器,主要是networking服务器 共享存储将托pipe静态网页内容(媒体,主要是图像) 从本质上讲,我需要能够跨多个networking服务器装载这个大的共享卷,并且这个数量将有望随着时间的推移而持续增长。 过去我们一直在使用NFS,但性能问题迫使我们去研究其他的方法。 (阅读:NFS调整有时像黑魔法,特别是在处理数以百万计的小图像时)。 通常情况下,设备上不会出现写入冲突的问题,因为只有less数中央机器能够更改内容,但是我知道,如果我们正在将其安装,我们需要一些方法来locking文件,而一个人正在使用它,以便我们不结束腐败。 在过去,我们依靠NFS来处理这个问题。 所以现在我正在看集群感知的文件系统(除非我错过了一些东西,所以这个post)。 到目前为止,我已经find了2个主要的select,但我不确定他们是否合适: RHEL Clustering和GFS2似乎是天生适合我的环境,但是这让我有点担心这种方式“locking”到发行版中。 如果我需要添加具有不同风格的服务器,会迫使我想出其他选项。 不是一个表演,但在我心中。 最大的问题是从RHEL文档反复阅读,他们的集群只支持16个节点。 如果是这样的话,它肯定不会适合我。 这是准确的还是我读错了? OCFS – Oracle的集群文件系统在谷歌的时候也受到了很多的关注,但是我不太了解。 最麻烦的一点是,我将不得不运行他们的Unbreakable Enterprise Kernel,这会导致我所有的服务器都会受到很大的干扰。 再次,不是一个表演阻止者,但我需要令人信服的证据走下去,特别是在尝试这种方法时。 我错过了什么吗? 有没有更好的方法,我应该使用? 我甚至已经考虑完全改变架构,以允许一些“前端”服务器挂载iSCSI分区,然后根据需要进行NFS共享,和/或使用nginx反向代理将介质分发给Web服务器。 有什么聪明的想法,你会相信在这种情况下使用?
我一直在检查CoreOS,我留下了深刻的印象。 在我findCoreOS之前,我将Mesos / Marathon / Chronos堆栈视为“集群内核”。 鉴于以下比较: init.d == Mesos+Marathon == CoreOS+Fleet cron == Mesos+Chronos == CoreOS+????? 我很好奇,如果CoreOS有一个分布式的Job Scheduler? 还是大多数人只是使用舰队运行其他东西?
在生产集群体系结构的mongoDB文档中,我读到正在运行的生产mongoDB集群的最servlets器数量为7: 是否有可能在同一台服务器上共享路由器,configuration服务器和碎片(每台服务器有3台,每台服务器都有路由器,configuration和分片服务)?
我们被要求提供一个中央数据库服务器继续运行的系统,即使在将安全更新应用到服务器的操作系统或数据库服务器软件时也是如此。 据我所知,这包括需要服务器重新启动的安全更新。 集群技术看起来很明显,但是如果一个服务器可以真正重新启动而集群正在使用,我有几个问题: 哪些数据库产品可以这样做? 它是如何工作的? 它是否同时在所有服务器上存储数据库数据,还是在重新启动时将一个服务器的任务转移到另一个服务器? 它如何影响性能,尤其是查询的延迟?
Powershell cmdlet Test-Cluster查询大量数据并执行validationtesting,并将其包装到一个漂亮的报告中。 如果运行Test-Cluster -List List,则会获得一个项目列表,您可以使用该cmdlet单独进行查询。 阅读DisplayName时有一个通用的命名scheme。 它们都以“List”或“Validate”开头。 显然“validation”将实际上通过失败来testing故障转移。 但是命名“List”让我觉得这只是对数据的查询,就像在运行时一样。 我已经用下面的脚本testing过了: $TestList = Test-Cluster -List | Where-Object {$_.DisplayName -like "List*"} Test-Cluster -Include $TestList.DisplayName -ReportName "c:\cluster reports\report" 在生成此报告时,我看不到任何已logging的群集错误或注意到任何故障转移活动。 微软technet也不完全清楚这一点,但他们确实推断行为是与我在想的是一致的。 看到这个摘录(重点是我的): testing结果将以您指定的文件名捕获到文件中。 通过运行validationtesting,您可以确认您的硬件和设置与故障转移群集兼容 。 有多种types的testing,包括集群,库存,networking,存储,系统和其他types的testing。 存储testing不会testing集群angular色正在使用的联机磁盘或存储池。 要testing此类磁盘,请首先运行Stop-ClusterGroup以停止集群angular色,然后运行Test-Cluster。 testing完成后,再次启动群集angular色(也称为资源组)。 testing群集TechNet页面 我想请您注意他们对“validation”一词的使用。 此外,运行该脚本时,作为输出的一部分,它说: Test Result: ClusterSkippedTestsCompleted 如果包含validationtesting,结果是: Test Result: ClusterConditionallyApproved 在我的testing环境中,networkingtesting产生了一些警告,触发了有条件的批准。 我已经search了很多,find描述“validation”与“列表”分裂背后的逻辑的文档,但我还没有发现任何东西。 这导致了一个问题… 列表请求是否触发故障转移事件?