我们有一个生产环境,在多台服务器上运行外部负载均衡的Tomcat服务器,为HTTP请求提供服务,并维护stick会话。 由于缺乏完整的构build和部署过程(不幸的是我不会在近期任何地方看到这种情况),还有一个Ops团队负责复制JSP / Classes /静态资源/属性文件,甚至是改变struts – config.xml(有时是web.xml!)手动。 我们不build立战争! 由于是人工密集型工作,因为人为错误会产生很多问题,因为在多个环境中必须执行相同的步骤(在部署当天,可能至less有10台左右的机器),这使得debugging更为复杂。 我明白我们远非理想的生产环境(就此而言甚至是实际的生产环境),但是我只是头脑风暴,想如果我们可以在高速SAN上安装(复制)Tomcat并将其作为共享驱动器安装服务器,以便至less这些更改将同时转到所有节点上。 请让我知道你的想法,特别是在这种方法的批评。 谢谢。
我已经设法启动一个项目,我应该主要为webhosting实现一个Linux集群。 我需要在群集上运行plesk,以便向客户提供cps,但plesk似乎有问题: 我正计划pipe理authentication,用户dirs等低谷ldap和有一个glusterFS作为SAN,但显然plesk不支持这种后端…研究和testing的时间没有带领我任何方向(除了不使用plesk),但是可以肯定的是那里有聚集的plesk装置,所以我不知道他们是如何克服plesk限制的。 如果您有任何关于在plesk之上build立Apache群集的信息或提示,我们将不胜感激
我在设置虚拟IP和Linux(Ubuntu)群集时遇到一些问题,我希望有人能帮忙。 这是我尝试设置的第一个节点集群,我没有find有关此问题的许多资源。 我正在阅读本指南以在Ubuntu上设置DRBD /虚拟IP: https : //wiki.edubuntu.org/ClusterStack/Natty#HA_Virtual_IP_Address 但是我在设置虚拟IP时遇到了一些主要问题。 我已经安装了DRBD,它同步并加载没有任何问题。 但是当我尝试添加虚拟IP时,出现以下错误消息 pengine: [843]: info: native_color: Resource virtual_ip cannot run anywhere 这是我的CRMconfiguration: node EOA-MAIL-IB-1 node EOA-MAIL-IB-2 primitive drbd_eoa ocf:linbit:drbd \ params drbd_resource="eoa-ib" \ op monitor interval="15s" primitive fs_drbd ocf:heartbeat:Filesystem \ params device="/dev/drbd0" directory="/mnt" fstype="ext4" \ meta target-role="Stopped" primitive virtual_ip ocf:heartbeat:IPaddr2 \ params ip="192.168.1.254" nic="eth1" \ op monitor […]
你如何获得一个DRBD对的从节点来挂载数据目录,这样数据就可以同步了? 我通过以下指南: https : //wiki.edubuntu.org/ClusterStack/Natty#Prepare_Partitions获得双节点群集设置。 我有连接的节点,但是辅助节点上的数据目录从不装载,因此节点1的数据永远不会复制到节点2。 起搏器“应该”使用以下命令将驱动器安装在节点2上: primitive res_fs ocf:heartbeat:Filesystem params device="/dev/drbd0" directory="/mnt/eoacluster" fstype="ext4" # Mounts the filesystem specifying the DRBD device and mount point. 以下是drdb-overview的输出: 节点1: 0:eoa-ib Connected Primary/Secondary UpToDate/UpToDate C r—- /mnt/eoacluster ext4 99G 188M 94G 1% 节点2: 0:eoa-ib Connected Secondary/Primary UpToDate/UpToDate C r—- 以下是df -h 节点1: Filesystem Size Used Avail Use% Mounted […]
我的MySQL服务没有启动。 我在我的VPS中使用debian wheezy作为操作系统。 我使用MyISAM来存储表格。 启动服务时的响应 root@ipxweb1:~# service mysql start [FAIL] Starting MySQL database server: mysqld . . . . . . . . . . . . . . failed! 当我使用mysqld命令时,出现以下错误。 root@ipxweb1:~# mysqld 120811 22:06:39 [Warning] option 'thread_stack': unsigned value 65536 adjusted to 131072 120811 22:06:39 [Warning] ignore-builtin-innodb is deprecated and will be removed in […]
我有两个不同地点的专用服务器。 一个在美国(基于CentOS ),另一个在亚洲(基于Debian )。 需要实施高可用性HTTP集群。 主要的复杂性是不同的OS。 heartbeat会好转还是其他?
我试图通过使用命令迁移旧的数据库到MySQL集群(4个数据节点): ALTER TABLE sample ENGINE=NDBCLUSTER 但我收到以下错误: The table '#sql-7ff3_3' is full 这张桌子里有大约三百万行。 这是我的configuration文件: /mysql-cluster/config.ini [NDBD DEFAULT] NoOfReplicas=2 DataDir=/data/mysql-cluster/ndb/ BackupDataDir=/data/mysql-cluster/backup/ DataMemory=10G IndexMemory=5G TimeBetweenLocalCheckpoints=6 FragmentLogFileSize=256MB NoOfFragmentLogFiles=50 MaxNoOfOrderedIndexes=8000 MaxNoOfConcurrentOperations=100000 MaxNoOfTables = 10000 RedoBuffer=128M MaxNoOfAttributes=5000 MaxNoOfUniqueHashIndexes=1024 /etc/my.cnf [mysqld] basedir=/usr/local/mysql datadir=/data/mysql-cluster/mysqld/ event_scheduler=on default-storage-engine=ndbcluster ndbcluster ndb-connectstring=192.168.xx,192.168.xx innodb_file_per_table innodb_buffer_pool_size = 512MB key_buffer = 512M key_buffer_size = 512M sort_buffer_size = 512M table_cache = […]
在我的工作场所,我们有一个使用频繁的SAS服务器,但是它的工作量是这样的,获得1分钟的CPU时间通常需要10分钟的实时时间。 这不仅仅是由于I / O或networking瓶颈 – 在办公时间内,CPU负载平均值总是非常高,许多分析人员不得不等待很长时间才能运行查询。 有两个选项我想比较: 设置一个sas网格环境(链接) 使用ScaleMP构build服务器群集并在其上运行单个SAS实例(链接) scheme1是绝对可行的,但我怀疑这种许可证的成本是非常高的。 另一方面,选项2看起来像涉及一些非常花哨的networking硬件。 是选项2: 在所有可行的? 潜在更好的价值? 我认为SAS应该能够在ScaleMP支持的一个Linux变种上运行 – 现有的SAS服务器使用的是SunOS 5.10,我认为它不被支持,所以我们可能必须将我们的数据库迁移到新的安装萨斯。 另一个要考虑的因素是我们有一个非常实际的代码库,这将需要相当多的修改才能充分利用SAS网格。 我仍然试图找出更多关于现有硬件的信息,但是我预计它会在2005年左右,也就是与SunOS 5.10大致相同的时代。 更新:硬件信息 从/ usr / sbin / psrinfo -v的输出看来,现有的服务器有32个sparcv9内核,其中8个运行在1.5GHz,另外24个运行在1.8GHz。 基于维基百科sparc处理器表的额定速度和操作系统的2005年的date,我认为这些是UltraSPARC_IV处理器,或者相当类似的东西。 从prstat来看,办公室午餐时间的平均负荷大约是32,即大约饱和。 在高峰期工作时间,这通常会升至45左右,但周一早上周末批量工作超时的情况已经达到110。 所以我得出这样的结论:CPU有一些瓶颈,但可能并不像我想的那么糟糕 – 获得服务器CPU时间的延迟很可能是等待磁盘I / O而不是等待线程队列。 根据输出 # /usr/platform/`uname -m`/sbin/prtdiag -v ,似乎服务器有256GB的内存。
我在3个节点上设置了Galera集群。 它完美的读取数据。 我已经做了简单的应用程序来对集群进行一些testing。 不幸的是,我不得不说,当我尝试做一些写作时,群集完全失败。 也许它可以configuration不同或我做错了什么? 我有一个简单的存储过程: CREATE PROCEDURE testproc(IN p_idWorker INTEGER) BEGIN DECLARE t_id INT DEFAULT -1; DECLARE t_counter INT ; UPDATE test SET idWorker = p_idWorker WHERE counter = 0 AND idWorker IS NULL limit 1; SELECT id FROM test WHERE idWorker = p_idWorker LIMIT 1 INTO t_id; SELECT ABS(MAX(counter)/MIN(counter)) FROM TEST INTO t_counter; […]
我在Azure虚拟机上构build了一个简单的IIS 8 Web场。 Web场具有3个使用共享configuration的实例(Windows Server 2012)。 负载均衡由Azure的内置负载平衡器处理。 有关IIS应用程序请求路由的许多讨论,但我想知道如果我将它添加到我当前的networking农场,我会得到什么? 我认为我可以使用ARR的情况下,其中一台服务器有更多的资源,以便更多的stream量被引导到该实例? 还有其他好处吗?