Articles of 集群

Riak集群备份10个节点到6个节点

我想知道如何备份一个由10个节点组成的集群,并在一个由6个节点组成的集群上进行恢复。 不pipe用于备份的技术(fsync,riakmanager,…)。 任何帮助,你可以给予不胜感激。

密集读写的分布式文件系统的select

我有一系列服务器(HP ProLiant,34台服务器),每台服务器都有500 G的硬盘空间。 这些服务器是计算集群的一部分,运行的进程大致分为两个“阶段”: 阶段1:读取less量大(高达6Gb)的文件,并写入相对较大(高达1-2Gb)的文件。 阶段2:读写大量(数百个)小文件,然后将其合并成更大的文件; 这些文件也随着作为“事务点”的临时文件一起生成。 服务器不共享相同的机箱,并通过Gbit以太网连接。 根据我之前的问题 ,我最初在一台服务器上放置了一个NFS共享,但是并发性水平导致了可用性和locking问题,因此经常在第二阶段导致进程失败。 现在,我可以使用服务器中的磁盘,我想过使用分布式文件系统。 我的初始方法(用于感谢其他地方的成功testing)是使用GlusterFS(分布式+复制安装)。 然而,虽然它在第一阶段完美运行,但是由于networking中的延迟不足以处理池中所有服务器的所有这些并发读取和写入,导致各种服务器不同步,因此怪异的错误(缺less文件,奇怪的权限拒绝错误…)错误。 此外,“问题”是服务器本身(或其中的一部分,我不需要全部使用)需要运行计算和提供存储(这是一个捐赠的资源,所以我不能做超过那)。 所有这些都解释了用例,然后提示这个问题:什么是最好的分布式文件系统来处理“第二阶段”? 请注意,我需要文件级别的东西,例如装入点或虚拟设备。

RHEV集群部署期间的clvmd问题

我们正在部署红帽企业虚拟化集群,并且在创buildlvm分区之后,我们遇到了一个尝试启动clvmd服务的问题。 以下已成功完成: vgchange -cy RHEVMVolGroup lvmconf –enable-cluster dracut… reboot 现在我们正在尝试运行: service clvmd restart 并在/ var / log / messages中出现错误: clvmd could not connect to cluster manager Can't open cluster manager socket: No such file or directory strace -f clvmd注意到以下问题: …. connect(…/var/run/cman_client…) (No such file or directory) corosync.ipc (Connection refused) …. 之后我们可以看到pvs命令从另一个angular度报告了这个问题: … connect () failed […]

使用连接的客户端closuresiSCSI目标的正确方法是什么?

具有两个DRBD主节点的iSCSI如果两条path并发写入请求,则使用不太合适 。 但我正在考虑将此想法用作ESXi 5.5U2主机的后端存储。 我已经用主/辅助configuration和经典故障转移群集进行了testing。 ESXi在这一点上所做的是检测到一个多path,并且主动使用一条path。 所以在这个星座中,似乎并没有出现并发写IO问题。 现在,在这两种情况下(主要/次要或主要/主要)的问题是:如何closures具有到iSCSI客户端的活动打开连接的iSCSI服务器(iSCSI目标提供程序,采用iSCSI方式)? 我目前在目标服务器上使用CentOS 5。 CO5使用tgtd来提供目标。 令我惊讶的是,正常停止方法失败,如果有连接的客户端。 相反,在这种情况下,强制停止似乎是我需要的。 我想干净地closures一台服务器(我必须停止访问目标,所以我可以切换drbd到次要),然后另一台服务器应该自动变为活动(在这个星座恕我直言,没有什么要做的)。 在这方面的问题:以下是好的,还是我错过了什么? 强行停止tgtd(将首先脱机的目标) 将IP拆分为启动器的方向(与用于drbd复制的行不同) closuresdrbd(使其成为第二) 重启或关机服务器

etcd集群设置与主厨确定初始集群状态

我正在写厨师脚本来设置一个etcd集群。 节点列表(包括它们的IP)将在chef脚本中硬编码(作为一个属性),并使用静态引导将它们传递给etcd –initial-cluster和–initial-cluster-state新参数。 因此,厨师脚​​本使用这些参数调用etcd,他们将设置集群,并在将来的运行(例如重启)忽略这些 – 初始集群参数。 首次设置,这个效果很好。 现在假设我想稍后向etcd集群添加一个新节点。 我首先添加另一个节点到厨师属性的硬编码列表中,并引导新节点。 当脚本调用etcd时,– initial-cluster参数也将包含附加节点,但是etcd要求使用–initial-cluster-state而不是–initial-cluster-state new来调用。 所以我需要一个单独的厨师脚本来添加新节点,而不是启动前几个节点。 这对我来说似乎不是一个好的解决办法。 一个解决scheme的第一个想法是在厨师脚本中区分大小写。 我们保留初始节点的IP的单独的硬编码列表。 如果自举节点属于初始集,则会使用–initial-cluster-state new ,否则将使用–initial-cluster-state 。 但是,当初始节点中的一个死亡时,这不起作用。 当删除并重新引导它时,它将获得与以前相同的IP(将其限定为初始节点),并尝试使用–initial-cluster-state new连接到群集。 如果etcd中有某种自动识别会自动select–initial-cluster-state参数,那就太好了。 但据我所知,etcd不提供这个。 推荐使用大厨设置etcd群集的方法是什么?

在Beowulf计算节点上启用cgroups

我们使用来自Penguin Computing的Scyld发行版运行Beowulf集群,看起来cgroups是在头节点上configuration的,而不是在计算节点上configuration的。 我试图configurationSlurm使用proctrack/cgroup插件,但它不能在计算节点上工作。 例如,我可以列出头节点上的cgroup,但不能在计算节点上列出: $ bpsh -1 systemd-cgls ├─1 /usr/lib/systemd/systemd –switched-root –system –deserialize 21 ├─user.slice … $ bpsh 1 systemd-cgls Failed to create bus connection: No such file or directory $ 如果我查看cgroup系统的安装点,它将安装在头节点上,而不是安装在计算节点上。 计算节点在该位置只有一个空目录。 $ bpsh -1 findmnt /sys/fs/cgroup TARGET SOURCE FSTYPE OPTIONS /sys/fs/cgroup tmpfs tmpfs ro,nosuid,nodev,noexec,mode=755 $ bpsh 1 findmnt /sys/fs/cgroup $ bpsh 1 ls […]

将Gluster用作家庭/档案目录服务器的缺点?

我最近问的是关于分割文件服务器的选项,因为我们的NAS解决scheme在我们的用户(特别是巨型configuration文件)几乎同时login时会相当困难。 我碰到了Gluster,看起来它可以将不同的物理存储介质集群到一个虚拟卷中,并从客户端angular度将其像虚拟NAS一样共享,并支持CIFS。 我的问题是,像这样的东西是可行的,用于在活动目录环境中的家庭和个人资料目录。 我担心ACL,主要是因为我不认为CIFS足够支持NTFS权限,它看起来不像Gluster导出这些权限级别,只是基本文件共享的基本权限。 我觉得使用Gluster可以让数据在多台服务器上是冗余的,并且可以加速重负载下文件的访问,同时允许我们通过添加另一台服务器来dynamic提高存储容量,并告诉Gluster的主节点添加服务器。 也许我对我的理解错了。 任何人使用它或关心分享这是多么可行?

Hyper V上的SQL集群 – 是群集中的一个集群

这是我刚才问的一个问题的重新散列 – 在一个顾问向部门的其他团队发出想法之后,整个问题又被提了出来,因此我正在寻找更详细的答案。 我们打算在多个物理刀片上设置一个多实例SQL集群,这些物理刀片将在每个SQL实例上运行各种不同的系统。 一般情况下,每个VM主机上将运行一个虚拟SQL实例。 再一次,在一般操作中,每个VM主机将运行在专用的底层刀片上。 安装应该给我们很大的灵活性来维护任何单独的虚拟机或底层刀片,所有的SQL实例都可以根据需要进行故障切换。 我原来的计划是要做到以下几点: 在每个刀片上安装2008 R2 将Hyper V添加到每个刀片 安装2008 R2虚拟机到每个刀片 在VM中 – 创build故障转移群集,然后安装SQL Server群集。 顾问build议我们改为: 在每个刀片上安装2008 R2 将Hyper V添加到每个刀片 安装2008 R2虚拟机到每个刀片 在将托pipe所有虚拟机的主机上创build一个集群。 在VM中 – 创build故障转移群集,然后安装SQL Server群集。 最大的不同之处在于增加了第4步,即我们也将所有访客虚拟机集群在一起。 由于我们在SQL集群和物理硬件之间根本没有任何联系,所以它进一步改进了维护。 我们理论上可以在客户机周围实时迁移客户虚拟机,而不会影响SQL集群,所以我们需要日常维护物理刀片来移动SQL集群而不会中断,也不需要进行故障切换。 这听起来像个不错的主意,但是我还没有在互联网上遇到任何人说他们已经这样做,而且工作正常。 我可以实际进行客户端的实时迁移吗? 有没有人有这种设置的经验,好或坏? 有没有我没有考虑的利弊? 我很欣赏镜像也是一个值得考虑的select – 在这种情况下,我们倾向于使用集群,因为它将完成每个实例的全部操作,并且我们拥有大量的数据库。 有些数据库是为了减轻第三方系统的负担,而这些系统甚至可能不适合与镜像工作(我对群集的理解是,失败对客户端来说是完全透明的)。 谢谢。

SQL 2008 R2群集选项

我期待在Windows Server 2008 R2上设置SQL 2008 R2群集。 有人可以给我一些可用于安装SQL Server集群或最佳实践的选项吗? 我以为SQL有内置的集群,但经过研究,看起来你首先必须安装Windows集群,然后在其上安装SQL。

Sun Grid Engine数组作业单个资源

Sun Grid Engine中是否有可能在每个子任务都有独特要求的情况下进行arrays作业? 例如,我可能有一个arrays工作,每个任务都有一个小的独特需求,但我不想单独启动每个工作。