Articles of 集群

在分片群集中删除一个mongodb副本集

我有这样的configuration: mongos> db.adminCommand('getShardMap') { "map" : { "RS13" : "RS13/mongo09-02:27003,mongo09-01:27001", "RS13/mongo09-02:27003,mongo09-01:27001" : "RS13/mongo09-02:27003,mongo09-01:27001", "RS26" : "RS26/mongo09-04.de.prod:27008,mongo09-01:27002", "RS26/mongo09-04.de.prod:27008,mongo09-01:27002" : "RS26/mongo09-04.de.prod:27008,mongo09-01:27002", "RS45" : "RS45/mongo09-02:27004,mongo09-03:27005", "RS45/mongo09-02:27004,mongo09-03:27005" : "RS45/mongo09-02:27004,mongo09-03:27005", "RS67" : "RS67/mongo09-03:27006,mongo09-03.de.prod:27006,mongo09-04.de.prod:27007", "RS67/mongo09-03:27006,mongo09-03.de.prod:27006,mongo09-04.de.prod:27007" : "RS67/mongo09-03:27006,mongo09-03.de.prod:27006,mongo09-04.de.prod:27007", "config" : "mongo09-01:27011,mongo09-02:27012,mongo09-03:27013", "mongo09-01:27001" : "RS13/mongo09-02:27003,mongo09-01:27001", "mongo09-01:27002" : "RS26/mongo09-04.de.prod:27008,mongo09-01:27002", "mongo09-02:27003" : "RS13/mongo09-02:27003,mongo09-01:27001", "mongo09-02:27004" : "RS45/mongo09-02:27004,mongo09-03:27005", "mongo09-03.de.prod:27006" : "RS67/mongo09-03:27006,mongo09-03.de.prod:27006,mongo09-04.de.prod:27007", "mongo09-03:27005" : "RS45/mongo09-02:27004,mongo09-03:27005", "mongo09-03:27006" : "RS67/mongo09-03:27006,mongo09-03.de.prod:27006,mongo09-04.de.prod:27007", […]

EC2上的自动缩放设置

我是networking开发和devise的新手(我从构build中得到的答案要大得多),而且我正在尝试为一个生活在免费层的Wordpress网站构build一个可扩展的AWS架构,但是会逐渐满足需求。 是否有单一的EC2实例解决scheme让我的Web服务器自动调整和克隆,以便更改传播到整个层,而不必手动更新每个实例? 我的search已经把我作为nginx和心跳或corosync作为可能的软件解决scheme,但我真的不知道在哪里寻找实施这个便宜。 编辑 :现在期待rsync和incron,但将所有服务器实例推出更改导致无限循环的变化?

LDAP URL示例:是否可以/仅使用没有主机名的域?

我们有一个使用LDAP协议连接到Active Directory(MS)的应用程序。 我们通常给出以下参数: ldapUrl = ldap://myserver.mydomain.ext:389 ldapBaseDn = OU=DPT,DC=mydomain,DC=org ldapBindDn = CN=ldapuser,OU=Service Account,DC=mydomain,DC=org ldapBindPwd = thepassword 我们组织中的一些人说,主机名(myserver)不再是强制性的,url可以像这样定义: ldapUrl = ldap://mydomain.ext/ …并且域控制器将自动查找使用哪个LDAP(AD)服务器(它位于群集环境中) 我知道端口不是强制性的,因为389是LDAP协议的默认端口,但是我从来没有听说过服务器也是可选的。 有人可以证实这是正确与否,如果是的话,指向我的文章(因为是的,我试图谷歌它,但没有发现任何有用的东西)。 我猜如果支持这种表示法,所有(LDAP)客户端并不总是这样,也许它只是一个微软的捷径。

通过安全通道validationmysql上的ftp用户

我必须面对这个安全问题: dmz中的一些sFTP服务器(proftpd)需要通过安全通道(encryption的psw)对mysql(本地群集| percona群集| MariaDB群集)进行身份validation,这是不够的。 似乎proftpd无法通过SSH连接到MySQL(集群)。 任何关于解决这个问题的build议? 感谢您的时间罗布

在HPC集群中运行作业

我对HPC环境相当陌生。 在使用8个内核的节点上运行作业并在使用I内核的8个节点上运行相同的作业,在性能或使用的壁挂时间方面是否有区别。 PS:我正在开发一个项目,其中涉及在集群中运行一个脚本,大约需要2-3天才能完成输出。 因此,这样的疑问,以避免不相关的testing。

使用Liferay群集的Pgpoolconfiguration

我正在使用连接到pgpool2的Liferay集群,当我对Web服务器运行大量的用户活动时,我发现很多关于liferay无法build立到数据库连接的exception。 在pgpool后面有两个数据库 例外情况 Caused by: java.sql.SQLException: Connections could not be acquired from the underlying database! ———- Caused by: com.mchange.v2.resourcepool.ResourcePoolException: A ResourcePool cannot acquire a new resource — the factory or source appears to be down. org.postgresql.util.PSQLException: The connection attempt failed. at org.postgresql.core.v3.ConnectionFactoryImpl.openConnectionImpl(ConnectionFactoryImpl.java:152) at org.postgresql.core.ConnectionFactory.openConnection(ConnectionFactory.java:66) at org.postgresql.jdbc2.AbstractJdbc2Connection.<init>(AbstractJdbc2Connection.java:125) at org.postgresql.jdbc3.AbstractJdbc3Connection.<init>(AbstractJdbc3Connection.java:30) at org.postgresql.jdbc3.Jdbc3Connection.<init>(Jdbc3Connection.java:24) at org.postgresql.Driver.makeConnection(Driver.java:393) at org.postgresql.Driver.connect(Driver.java:267) at […]

Tomcat集群 – 如何validation节点饿死?

我们有一个负载平衡器(haproxy)的tomcat集群。 作为我们的升级脚本的一部分,我们希望在3的群集中挨饿一个tomcat,等待所有的请求都被处理为这个特定的tomcat。 只有这样我们才能closures它并升级运行在该tomcat上的Web应用程序。 我们的问题是: 我们的脚本如何显示tomcat是否已经完全饿死(所有的请求都已经被处理了)? 有没有一个tomcat本身暴露的API? 或者也许我们可以查询haproxy的信息? 谢谢! 编辑:这是我的haproxyconfiguration文件: global debug stats socket /etc/haproxy/haproxysock level admin defaults mode http timeout connect 5s timeout queue 300s timeout client 300s timeout server 300s frontend http-in bind *:8080 default_backend NG backend NG cookie JSESSIONID prefix server 10.0.110.44 10.0.110.44:8080 cookie JSESSIONID_SERVER_1 check maxconn 500 server 10.0.110.45 10.0.110.45:8080 cookie JSESSIONID_SERVER_2 […]

Riak不允许添加节点,因为它在自己的集群中

(这是从栈溢出我的问题的转发,这是在那里,这里是正确的地方去问) 我正在尝试在Raspberry Pi上构build一个Riak集群。 用Erland和Riak创build一个图像,单个节点似乎正常工作。 然后我为了我的不同的Pi而克隆了这张图片: [email protected] [email protected] [email protected] 它们具有完全相同的configuration,唯一不同的是vm.args和app.config中的静态IP。 现在的问题是,我正在从[email protected]开始构build集群,添加了一个节点[email protected] ,它似乎是[email protected] : # ./riak-admin member-status ================================= Membership ================================== Status Ring Pending Node ——————————————————————————- valid 100.0% 50.0% '[email protected]' valid 0.0% 50.0% '[email protected]' ——————————————————————————- 有一次,我尝试添加第三个节点( [email protected] ),我得到以下错误信息: # ./riak-admin cluster join [email protected] Failed: This node is already a member of a cluster 为什么我没有这个问题[email protected] ? 这似乎只发生在[email protected]节点。 我不能强制从集群中删除[email protected] ,因为它说: […]

HPC集群(SLURM):build议build立一个安全稳定的系统的方法

我正在使用SLURM驱动的HPC集群,包含1个控制节点和34个计算节点,而且由于当前系统并不十分稳定,因此我正在寻找有关如何以某种方式构build这样一个集群的指南或最佳实践它变得更加稳定和安全。 而且要清楚的是,我并不是在寻找关于资源pipe理的详细答案,或者是其他的工具,但是对于非常基本的设置build议(见下面的“问题”)。 我目前的设置 1个控制节点 这台机器在/ usr / local / slurm上安装了slurm,并运行slurmctld守护进程。 导出完整的slurm目录(包括所有可执行文件和slurm.conf)。 34计算节点 这些机器将导出的slurm目录从控制节点挂载到/ usr / local / slurm并运行slurmd守护进程。 我不使用任何备份控制节点。 如果我们的控制节点丢失了,如果当前正在运行的作业能够存活,似乎总是一个运气问题,所以我正在寻找一种方法来创build一个更稳定的设置。 当前设置可能存在的问题 1)共享slurm目录。 我在网上找不到任何东西,如果这是一个好的或不好的做法,但由于slurmconfiguration文件必须在所有机器上相同,我想我可能会分享完整的slurm安装。 但是,当然,如果计算节点丢失,所有的文件也将变得不可用。 2)缺less备份控制节点。 这需要一个可以保存当前状态的共享NFS目录。 问题是,这个目录应该放在哪里? 当然,把它放在控制节点上是没有意义的,但是它应该在备份控制节点上吗? 或者在一个完全不同的机器上? 题 那么,是否有一些指导原则可以用来构buildHPC群集? 问题是,涉及到哪些不同types的节点,他们的工作是什么以及应该通过NFS共享什么样的数据,以及这些共享目录应该存活在哪里? 我也会很感激任何一种文学或教程,这些都指向了正确的方向。

挂载的gluster卷只能由root访问

我有一个双节点集群,每个节点有两个硬盘。 mpiuser的主目录通过NFS( 在这里使用指南)在节点之间共享。 每个节点的第二个硬盘被用来创build一个gluster卷。 现在我想把gluster卷(gv0)挂载到mpiuser里面的一个目录(让我们说从头开始),并从头开始运行mpi代码。 但是当我挂载gv0 / home / mpiuser / scratch时,只有root可以在其​​中创build文件。 因此,mpiuser无法运行代码并生成文件。 我登上它的方式是使用 sudo mount.glusterfs 192.168.0.100:/gv0 / home / mpiuser / scratch 我希望得到这个工作的任何build议。