Articles of 集群

如何在proxmox集群中创build共享子网?

我有三台proxmox机器,我需要在每台proxmox上为虚拟机创build子网。 例如,在服务器“A”上,我把虚拟机放在nginx上,在服务器“B”上,我把虚拟机放在uwsgi上,所以服务器“A”的虚拟机需要从服务器“B”访问虚拟机。 请不要评论该解决scheme的有效性,这只是一个例子。 在子网上的虚拟机需要访问位于其他任何位置的虚拟机(在服务器“A”,服务器“B”,服务器“C”或将来可以添加的其他服务器)上,这一点很重要。 如果可以创build许多子网,那么来自不同子网的虚拟机就不能互相通信。 物理上,服务器连接到通过路由器连接到互联网的networking交换机。 我已经configuration每个服务器像这里: 服务器configuration vmbr1是物理接口,10.10.11.4是我的一个proxmox服务器的地址,10.10.11.1是路由器的地址,vlan2 10.11.0.0/16是我的虚拟机的networking。 在proxmoxes我已经configurationNAT和虚拟机可以发送数据包到Internet,但不是从其他proxmox机器,因为没有任何规则proxmox或在路由器做到这一点。 我不知道如何创build这些规则。 在这种情况下我应该怎么做?

在proxmox中的虚拟机之间共享硬盘的最佳方式

我有一个专用服务器上的几个VPS。 虚拟化已经通过proxmox完成了。 我使用每个VPS作为networking服务器,我使用NFS共享/主分区。 但我认为它的performance并不像我预期的那样。 我不知道在proxmox中的VPS之间共享存储的最佳方式是什么?

Jboss EAP 6.4集群不能正常工作

我们正在试图将Jboss 6.4集群化。 我们有2台服务器,每台服务器有1个从节点。 在一台服务器上,我们有一个主节点和一个从节点1,在另一台服务器上有一个从节点2。 在2台服务器上共有3个节点。 为了实现集群,我们进行了下面的configuration,我们创build了一个名为“ClusterGroup”的完整haconfiguration文件。 还分配了这个configuration文件全套sockets。 我们通过Jboss控制台进行configuration,并确认它们反映在/Jboss_Home/domain/configuration下的domain.xml文件中。 现在要validation群集是否正常工作,我们做了如下的testing场景。 我们部署了一个虚拟应用程序 – dummy.war并将其分配给上述组。 在这场战争中,共有两页,一页用于设置会话中的属性,另一页用于获取第一页已经设置的属性。 在定义的2个从属节点中,只有1个正在运行,另一个停止。 (主节点始终运行)。 在Slave1节点上,我们testing了应用程序,并为此设置了会话。 之后,我们停止了Slave1节点并启动了Slave2节点。 但它无法获取会话属性,因为它应该是因为主节点始终运行并且从节点2应该能够与主节点通信我们在server.log中看到了以下错误。 你能帮忙,可能是什么原因,我们缺less一些configuration? ERROR [org.jboss.as.controller.management-operation] (Controller Boot Thread) JBAS014612: Operation ("add") failed – address: INFO [org.jboss.as.server] (Controller Boot Thread) JBAS015859: Deployed "DummyApp.war" (runtime-name : "DummyApp.war") INFO [org.jboss.as.controller] (Controller Boot Thread) JBAS014774: Service status report JBAS014775: New missing/unsatisfied dependencies: service […]

MAAS无盘计算hpc集群

我正在考虑使用MAAS来为计算集群部署操作系统。 所有节点都是无盘的。 只有头节点和(可能)MAAS机架控制器将有硬盘驱动器。 看来MAAS必须在使用之前完成节点debugging,但是如何在没有系统安装的情况下debugging节点? 经过一天的search没有结果,只有云彩与Juju。 有什么build议么?

tomcat集群在部署战争时奇怪的行为

在尝试使用两个tomcat节点node1,node2的集群时,我发现: 不要让你的.war事先留在手表里。 在node1启动后复制文件,然后将其部署到其他节点。 如果.war文件在watch-dir中,那么在将.war文件部署到web-apps文件夹之前启动第二个节点(在我的实验中,花费30秒从watch-dir向node1上的webapps部署war)。 如果我在部署之后延迟并启动node2,战争将不会部署在node2上。 为什么这种行为? 可以接受吗? 如果是,那么战争将如何部署到节点2或故障转移节点从崩溃恢复后? 我还需要closuresnode1吗? 我错过了什么吗? 我还在学习,请帮忙。 我正在使用tomcat7和apache。

如何在CentOS 7上彻底清除pacemaker,corosync和pcs?

使用两个节点: node1:192.168.0.1 node2:192.168.0.2 在两台服务器上安装HA工具: yum install pacemaker pcs (它将包括安装corosync) 在两台服务器上: passwd hacluster 为集群设置相同的密码。 在两台服务器上: systemctl enable pcsd.service systemctl start pcsd.service validation群集节点: node1# pcs cluster auth 192.168.0.1 192.168.0.2 他们都成功通过authentication。 生成corosyncconfiguration: node1# pcs cluster setup –name mycluster 192.168.0.1 192.168.0.2 启动群集: node1# pcs cluster start –all 成功。 确认状态: pcs status corosync Output Membership information ———————- Nodeid Votes Name […]

MongoDB Primary在大约2周后不断崩溃

我们正在天青3台虚拟机上运行一个mongodb集群。 我自己设置集群,我们已经使用了大约一年的时间。 几个月前,我们的小学生经历了一次mongodb崩溃。 幸运的是,中学接手,我们的平台没有任何伤害。 问题是,从那时起,小学每两周就会崩溃。 我们将这些服务器安装在Grafana上,并进行自定义监控,而在“I / O花费的时间”发生崩溃之前,这个服务器波动很大,峰值高于正常水平。 稍后,服务器崩溃,出现以下错误: 2017-08-27T23:29:31.537+0000 F – [NetworkInterfaceASIO-BGSync-0] std::exception::what(): Resource temporarily unavailable Actual exception type: std::system_error 0x1556b32 0x1555e42 0x1ce5506 0x1ce5551 0x14e0a35 0x14e1258 0x12d996e 0x12da16e 0x12da8a8 0x12cd06c 0x12c2a38 0x12c3f9a 0x12c4cd9 0x12c0f85 0x128c858 0x129ee53 0x129f48d 0x1576824 0x1576a21 0x12b75fb 0x1d00200 0x7fa0454f56ba 0x7fa04522b3dd —– BEGIN BACKTRACE —– {"backtrace":[{"b":"400000","o":"1156B32","s":"_ZN5mongo15printStackTraceERSo"},{"b":"400000","o":"1155E42"},{"b":"400000","o":"18E5506","s":"_ZN10__cxxabiv111__terminateEPFvvE"},{"b":"400000","o":"18E5551"},{"b":"400000","o":"10E0A35","s":"_ZN5mongo10ThreadPool25_startWorkerThread_inlockEv"},{"b":"400000","o":"10E1258","s":"_ZN5mongo10ThreadPool8scheduleESt8functionIFvvEE"},{"b":"400000","o":"ED996E","s":"_ZN5mongo8executor22ThreadPoolTaskExecutor23scheduleIntoPool_inlockEPNSt7__cxx114listISt10shared_ptrINS1_13CallbackStateEESaIS6_EEERKSt14_List_iteratorIS6_ESD_St11unique_lockISt5mutexE"},{"b":"400000","o":"EDA16E","s":"_ZN5mongo8executor22ThreadPoolTaskExecutor23scheduleIntoPool_inlockEPNSt7__cxx114listISt10shared_ptrINS1_13CallbackStateEESaIS6_EEERKSt14_List_iteratorIS6_ESt11unique_lockISt5mutexE"},{"b":"400000","o":"EDA8A8"},{"b":"400000","o":"ECD06C","s":"_ZN5mongo8executor20NetworkInterfaceASIO7AsyncOp6finishERKNS_10StatusWithINS0_21RemoteCommandResponseEEE"},{"b":"400000","o":"EC2A38","s":"_ZN5mongo8executor20NetworkInterfaceASIO18_completeOperationEPNS1_7AsyncOpERKNS_10StatusWithINS0_21RemoteCommandResponseEEE"},{"b":"400000","o":"EC3F9A","s":"_ZN5mongo8executor20NetworkInterfaceASIO20_completedOpCallbackEPNS1_7AsyncOpE"},{"b":"400000","o":"EC4CD9"},{"b":"400000","o":"EC0F85"},{"b":"400000","o":"E8C858","s":"_ZN4asio6detail14strand_service8dispatchINS0_7binder2IRSt8functionIFvSt10error_codemEES5_mEEEEvRPNS1_11strand_implERT_"},{"b":"400000","o":"E9EE53","s":"_ZN4asio6detail14strand_service8dispatchINS0_17rewrapped_handlerINS0_7binder2INS0_7read_opINS_19basic_stream_socketINS_2ip3tcpENS_21stream_socket_serviceIS8_EEEENS_17mutable_buffers_1ENS0_14transfer_all_tENS0_15wrapped_handlerINS_10io_service6strandESt8functionIFvSt10error_codemEENS0_26is_continuation_if_runningEEEEESI_mEESK_EEEEvRPNS1_11strand_implERT_"},{"b":"400000","o":"E9F48D","s":"_ZN4asio6detail23reactive_socket_recv_opINS_17mutable_buffers_1ENS0_7read_opINS_19basic_stream_socketINS_2ip3tcpENS_21stream_socket_serviceIS6_EEEES2_NS0_14transfer_all_tENS0_15wrapped_handlerINS_10io_service6strandESt8functionIFvSt10error_codemEENS0_26is_continuation_if_runningEEEEEE11do_completeEPvPNS0_19scheduler_operationERKSF_m"},{"b":"400000","o":"1176824","s":"_ZN4asio6detail9scheduler10do_run_oneERNS0_11scoped_lockINS0_11posix_mutexEEERNS0_21scheduler_thread_infoERKSt10error_code"},{"b":"400000","o":"1176A21","s":"_ZN4asio6detail9scheduler3runERSt10error_code"},{"b":"400000","o":"EB75FB"},{"b":"400000","o":"1900200"},{"b":"7FA0454EE000","o":"76BA"},{"b":"7FA045124000","o":"1073DD","s":"clone"}],"processInfo":{ "mongodbVersion" : "3.2.16", "gitVersion" : "056bf45128114e44c5358c7a8776fb582363e094", […]

Aws Redis集群会话pipe理不起作用

我们在aws ELB中使用nginx运行php7,并在AWS集群redis中处理会话,但是会话没有存储在AWS redis集群中。有时可以使用,但大部分时间不起作用。 在php.ini中已更改为session.save_handler = redis和session.save_path =“tcp:// redis configuration endpoint:6379” 请在此帮助。

共享存储的CLVM不可用于群集中的所有节点

如果使用cman / corosync运行3个或更多节点群集,并且某种共享块存储(SAN)仅连接到群集中的某些节点,那么如何在该存储设备上启用CLVM? 在我的示例中,我正在运行3节点群集,其中2个节点是“主要工作负载”,1个节点用于备份和归档。 主节点通过多path与FC HBA连接。 一切工作正常,我能够初始化该设备上的PV,并可以在两个节点上看到它: PV VG Fmt Attr PSize PFree /dev/mapper/mpathd san-vg1 lvm2 a– 500.00g 500.00g 现在,为了创build一个集群VG,我已经在集群中的所有3个节点上启用了防护(如果有的话,使用IPMI)。 fence domain member count 3 victim count 0 victim now 0 master nodeid 1 wait state none members 1 2 3 我也创build了一个聚集的VG( vgcreate -c )在那个PV上,也可以正常工作: VG #PV #LV #SN Attr VSize VFree san-vg1 1 0 […]

如何通过会话复制find集群Tomcat的限制

我正在实验性地开发一个Tomcat集群,因为它可能需要我们的生产环境。 它必须是可扩展的,高可用性和支持多个并发用户。 正因为如此,我做了这样一个testing环境: HaProxy / \ / \ Tomcat 1 (7.0) Tomcat 2(7.0) Redis 1 Redis 2 Tomcat“在HaProxy上进行了负载平衡,并通过Redis复制了他们的会话。 每个Redis都通过哨点连接彼此。 最后,每个Tomcat和Redis捆绑包都是一台机器。 例如,Tomcat 1和Redis 1在同一台服务器上。 在这个实验实验结束时,我有一些问题, 我怎样才能推动这个实验室的限制? 我试图在tomcat上的基本应用程序,但我需要知道此群集的限制,以发现潜在的故障转移点。 这个实验室的潜在弱点是什么? 相同问题的最佳做法是什么? 使用Web Logic或Wildfly代替Tomcat或使用Tomcat的默认DeltaManager或BackupManager有什么优点或缺点? 我想尝试复制节点的记忆彼此。 可能吗? 如果可能的话,我想知道你的build议:) 提前致谢。