看看下面的情况: 我有一个有4个节点的CoreOS / fleet群集。 有4个apache单位与下面的行 Conflicts=apache@%i.service 一台机器停机。 舰队会尝试重新启动另一台主机的单位,但没有可能的主机。 在这种情况下,舰队做什么? MachineMetadata和Conflicts等不同选项的处理方式有什么不同
我在为weblogic和Apache设置集群环境方面遇到了一些问题。 结构如下所示:1 Web服务器代理对3个Weblogic服务器的集群环境的请求。 每次我发送请求到Apache服务器,请求得到处理。 我想出了一个问题的一部分,但这是不是在生产意图。 每当我添加DynamicServerList在请求失败。 当我切换到closures它的作品,但是这意味着每当一个服务器失败,Apache仍然会发送请求到该服务器和用户体验将为0。 编辑1:我为Centos 7使用weblogic 12c和apache2.4 这是我的weblogic插件的configuration文件: <VirtualHost *:8080> ServerAdmin postmaster@webserver2 ServerName webserver2 DocumentRoot /var/www/webserver2/htdocs ErrorLog /var/log/httpd//webserver-error_log CustomLog /var/log/httpd/webserver-access_log forwarded <Directory /> AllowOverride all Order allow,deny Allow from all </Directory> DirectoryIndex index.html <Location /> SetHandler weblogic-handler </Location> <IfModule mod_weblogic.c> WeblogicCluster 192.168.166.70:8001,192.168.166.71:8001,192.168.166.69:8001 ConnectTimeoutSecs 15 ConnectRetrySecs 10 WLIOTimeoutSecs 600 DynamicServerList ON Idempotent ON […]
我正在使用一个简单的心跳设置来处理与drbd共享的文件系统,并通过Apache提供服务。 我使用/etc/ha.d/haresources来定义ha资源,如下所示: server1 drbddisk::myfs \ Filesystem::/dev/drbd/by-res/myfs::/mnt/myfs::ext4::noatime \ IPaddr::10.0.0.254/24/eth0 apache2 这工作得很好,如果使用旧的debian sysvinit,但有systemd的种族问题,因为停止apache是asynchronous完成,所以当心跳发出“/etc/init.d/apache2停止”scrypt而它很快返回时,apache2仍然可以活跃,因此FS的卸载失败。 我知道很多解决方法来解决这个问题,但我想知道是否有一个“干净”的方式,而不必恢复到sysvinit
我想知道在多个服务器上pipe理一个IP地址白名单的最佳做法是什么? 我们希望允许我们的用户群通过网页界面添加他们希望列入白名单的IP地址,然后将该IP地址添加,删除或修改为所有服务器。 我正在考虑编写一个脚本来通过python或者bash来实现,并且使用无密钥的sshlogin到每个服务器,并且应用这些规则,但是一定有一个更好的方法来实现这个。 有什么build议? 谢谢大家!
我只是在/etc/keepalived/keepalived.conf设置通知脚本 /etc/keepalived/keepalived.conf global_defs { notification_email { [email protected] } notification_email_from [email protected] smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id DEFAULT_ROUT_ID } vrrp_script notification { script "" interval weight } vrrp_instance VI_1 { interface eth0 virtual_router_id 10 nopreempt state backup priority 110 advert_int 1 virtual_ipaddress { 22.22.22.22 } track_script { notification } notify_master "/etc/keepalived/master.sh" notify_backup "/etc/keepalived/backup.sh" } 每当国家发生变化,就会出现 它似乎工作,但这些shellcripts不执行。 你有什么build议吗?
在运行drbd群集时遇到一些问题。 当我想开始创build我的存储时,出现以下错误: root@raspberrypi-ha1~# drbdadm create-md drbd1 no resources defined 但是我的资源在两台主机的/etc/drbd.conf文件中都是明确定义的: include "drbd.d/global_common.conf"; include "drbd.d/*.res"; resource drbd1{ protocol C; syncer { rate 3M; al-extents 257; } on raspberrypi-ha1 { device /dev/drbd1; disk /dev/sda1; address 192.168.178.201:7789; meta-disk internal; } on raspberrypi-ha2 { device /dev/drbd1; disk /dev/sda1; address 192.168.178.202:7789; meta-disk internal; } } 主机名被设置为raspberrypi-ha1有没有人有一个想法?
目前,我们已经build立了Slurm来pipe理一个由六个GPU组成的小型集群。 到目前为止,这一切都非常成功,但是现在我们希望利用英特尔酷睿i7-5820K CPU来处理只需要CPU处理能力的作业。 每个CPU有六个核心和12个线程,每个GPU需要一个线程/逻辑核心,所以剩余的8个线程(每个节点)可以用于“仅CPU”作业。 当前configuration: cat /etc/slurm-llnl/gres.conf Name=gpu File=/dev/nvidia0 Name=gpu File=/dev/nvidia1 Name=gpu File=/dev/nvidia2 Name=gpu File=/dev/nvidia3 cat /etc/slurm-llnl/slurm.conf (摘录) SchedulerType=sched/builtin SelectType=select/cons_res SelectTypeParameters=CR_Core AccountingStorageType=accounting_storage/none GresTypes=gpu MaxTasksPerNode=4 NodeName=node1 CoresPerSocket=4 Procs=8 Sockets=1 ThreadsPerCore=2 Gres=gpu:4 State=UNKNOWN NodeName=node2 CoresPerSocket=4 Procs=8 Sockets=1 ThreadsPerCore=2 Gres=gpu:4 State=UNKNOWN NodeName=node3 CoresPerSocket=4 Procs=8 Sockets=1 ThreadsPerCore=2 Gres=gpu:4 State=UNKNOWN NodeName=node4 CoresPerSocket=4 Procs=8 Sockets=1 ThreadsPerCore=2 Gres=gpu:4 State=UNKNOWN NodeName=node5 CoresPerSocket=4 Procs=8 […]
我有memcached集群与couchbase。 为了平衡使用HAProxy。 但是检查健康有问题。 为了检查是否符合要求: curl -v http://10.0.110.1:8091/pools/default/buckets/default/nodes/10.0.110.1%3A8091/stats 响应是200或404。 在HAProxy: option httpchk GET /pools/default/buckets/default/nodes/10.0.110.1%3A8091/stats server memcached1 10.0.110.1:11211 check inter 3s port 8091 server memcached2 10.0.110.2:11211 check inter 3s port 8091 server memcached3 10.0.110.3:11211 check inter 3s port 8091 问题是“/ pools / default / buckets / default / nodes / 10.0.110.1 %3A8091 / stats”。 如何添加主机的variablesIP。 也许使用一个variables“dst”。 但没有为我工作: […]
我正在使用领事build立一个服务发现的云端堆栈,但是我打了一堵墙,所以我问了一下互联网的人。 我想要做的是在多个主机的consul上注册一个服务,但是在服务启动时只返回其中的一个查询。 确切地说: 节点A,节点B,节点C都能够提供服务X. 所有的节点都在运行 他们都将服务注册到领事。 在这个时候,当我查询这些数据的领事时,我会得到所有三个节点的答案。 我只想得到其中的一个,只要服务是由该节点提供的,但是如果没有,我想为所有问题find另一个节点。 更准确地说,我构build了一个xtradb集群,其中一个节点必须从我们的旧数据中心复制。 可能只有一个,在给定时刻正在复制,但如果该节点closures,其他一些节点必须继续复制。 我可以用一个外部的监控主机来解决这个问题,但是这可以是一个SPOF,所以最好的办法是在所有节点上放置一个复制监督脚本,向总领事询问“我是否是负责复制的主机? 如果答案是肯定的,那么在本地设置副本。 从理论上讲,如果该节点closures,领事可以投票给新的“副本主” – 并且该节点上的代理将设置复制。 那么,领事能干吗? 如果没有,有没有其他办法来实现这一目标? (我们在GCP上运行,所以我不能使用磁盘或浮动IP进行仲裁,所有的主机都是独立的,我需要一些能够对主机有共识的层次)。在最坏的情况下,我会自己写这个,但是有一个生产就绪的解决scheme会更好。
据我所知, 可以指定mem_free在具有内存free = mem_free的主机中提交作业,而 h_vmem是作业可以使用的内存的硬性限制,如果作业到达h_vmem ,作业会崩溃? 我想我们可以将主机的h_vmem设置为总的物理内存,以便作业不会开始使用交换,并减慢服务器的速度。 那么什么是h_rss ? 它看起来和h_vmem.具有相同的定义h_vmem. 还是我误解了h_vmem ? h_vmem是用来保留它可能需要的额外内存,而不是它所需的最小内存( mem_free )? 但是,如果超过内存不要崩溃,所以工作可以超过h_vmem ? 如果我对h_vmem第二个解释是正确的,那么我猜测,要在一个主机上提交一个工作,这个工作必须同时满足mem_free和h_vmem (因为h_vmem不是INFINITY)。 如果我对h_vmem第一个解释是正确的,那么我想,在一个主机上提交一个工作,这个工作可以单独满足mem_free ,不需要满足h_vmem ,因为它只保留可用空间,如果没有空间可用,这没关系?