首先,如果我没有包含足够的信息来正确排除这个问题,我很抱歉。 这种事情不是我的专长,所以这是一个学习的过程。 如果有什么我需要提供,请让我知道,我会很乐意尽我所能。 与我的问题相关的图像在这篇文章的底部。 我们正在处理四个WebLogic 9.2 Java应用程序服务器的集群环境。 该集群采用循环加载algorithm。 其他细节包括: Java(TM)2运行环境,标准版(build 1.5.0_12-b04) BEA JRockit(R)(构buildR27.4.0-90_CR352234-91983-1.5.0_12-20071115-1605-linux-x86_64,编译模式) 基本上,我开始关注服务器的性能,因为我们的客户在一天中的不同时间都看到很多延迟。 我们的服务器应该很容易地处理它们给出的负载,所以不清楚发生了什么事情。 使用惠普性能pipe理器,我生成了一些图表,表明CPU使用率完全不合时宜。 看来,在任何给定的点,一个或多个服务器的CPU利用率超过50%。 我知道这不是特别高,但是我认为这是一个基于WebLogic集群中其他服务器的CPU利用率的红旗。 有趣的事情要注意: CPU使用率高仅在server02上发生了几个星期。 服务器崩溃(极其罕见;我们不确定是否与此相关),并且在启动备份时,所有4台服务器的CPU利用率都是正常的。 我们昨天在2/28重新启动了所有4个托pipe服务器和应用程序服务器(在server01上)。 正如你所看到的,server03和server04拿起之前在server02上看到的行为。 CPU利用率是应用程序用户拥有的Java进程(appown)。 所有服务器的事务数量都是一致的。 似乎没有任何一台服务器实际上处理的是另一台服务器。 如果任何人有任何想法,或者至less可以把我指向正确的方向,这将是伟大的。 再次,请让我知道,如果有任何额外的信息,我应该发布。 谢谢!
我需要购买一台预定用于SQL Server 2008上的Navision 2009数据库的新服务器。 数据库是50GB大,每年增长10GB。 我正在考虑在2台服务器上创build一个集群。 还没有决定SQL服务器集群还是Hyper-V集群。 两种解决scheme都需要在这两台服务器之间共享外部SAN 我有点担心SAN的SQL Server性能。 我已经拥有IBM存储,但是我仅将其用于备份。 在这里,您可以对本地光盘(当前正在处理SQL Server数据库)和此存储进行HD Tach比较 红色是本地光盘。 蓝色是SAN。 我看到的是本地光盘有更好的寻找时间,但是SAN有更好的读写速度。 那么对于大型(> 60GB)金融数据库哪个更重要?寻找时间还是读写速度? Hyper-V会杀死我的SQL Server性能吗? 更多的RAM有助于平衡寻求时间牺牲?
我一直在阅读在Hyper V环境中运行SQL集群,似乎有几个选项: 在2个虚拟机上安装guest虚拟机群集,这些虚拟机本身是故障转移群集的一部分 在2个虚拟机上安装SQL集群,但虚拟机本身不是基础集群的一部分。 使用选项1,它稍微复杂一些,因为有效地使用了两个群集,但是这增加了一些灵活性,因为我可以自由地迁移群集中的VM和物理刀片以进行物理维护,而不会影响SQL guest的状态在其中运行的群集。 使用选项2,设置更简单一些,因为混合中只有一个簇,但是我的虚拟机是锚定在他们设置的物理刀片上的(我会忽略我可以手动移动VHD为了这个问题的目的)。 在决定select哪个选项时,我应该考虑其他因素吗? 我可以自由地testing这两个选项,可能会做,但如果任何人有这些设置的工作经验,并可以提供一些将是伟大的投入。 编辑: 提出了关于添加镜像到混合添加数据库的第二个副本好点。 我正在考虑是否只使用2个SQL实例并单独使用镜像,因为这个后端将用于单个应用程序,因为它将相对于用户而言是一个相当稳定的设置。 这个问题的主要观点虽然是专门针对集群设置的。 即更好 a)在Hyper V主机上,构buildVM的故障转移群集,然后在VM内自行设置第二个群集,并在主机群集的顶部安装SQL群集 – 来宾群集 要么 b)只需在虚拟机中设置SQL群集,并且在主机Hyper V机器本身上没有基础的故障转移群集设置。 我见过这两种select的提倡者,但我并不真正了解每种方法的优缺点。
基础设施如何可能是一个简短的例子: 4个服务器作为iSCSI目标,并且每个服务器都暴露1x2TB(每个服务器都有一个raid10用于存储,因此2TB的可用容量) 需要具有8TB(上面暴露的磁盘:4x2TB)磁盘的n台服务器,并发写入是必要的。 所有的服务器真的共享存储。 现在,如何实现? 我没有任何关于群集fs的偏好。 问候,帕特里克
我正在尝试在Windows Server 2008 R2标准上设置一个具有NLB的双节点群集。 一个是第一个节点(节点A),我成功创build了一个包含它的集群。 但是,从节点AI尝试将节点B添加到群集时,将失败,并显示以下错误消息:“指定的主机已经是此群集的一部分。 我尝试以单播或组播模式运行群集,但仍然无法正常工作。 任何可能出错的线索?
当你看我的问题标题,那么你可能会认为我会要求在存储空间的GlusterFS替代,但我在寻找提示基本上我想find软件可以做像gluster一样,但为聚集动力资源 这个想法就像虚拟化池,我们可以将不同物理计算机上的一些虚拟机连接成一个大型计算机池,但是这种方法的问题是我们必须提供处理器虚拟化支持的硬件,但是如果没有VT技术支持 如果有人在这里知道什么样的软件,我可以用来做这样的硬件集群,无论应用软件里面,请让我知道
我正在testing使用SSIS从远程SQL服务器加载数据的不同configuration。 在集群情况下,与非集群本地SQL实例相比,SSIS似乎对本地集群SQL实例说话慢。 它看起来像SSIS对群集SQL实例的任何情况。 无论SSIS实例是否是本地的,都通过networking进行通信。 这是真的? 在我当前的情况下,SSIS 2008 R2运行在具有SQL Server 2008 R2实例的节点上。 它似乎通过一些networking接口与群集实例进行通信,即使它们都在同一个节点上。 奇怪的是,我无法确定它是哪个接口。 以下是总体布局: 集群节点1物理IP 192.168.1.100 SQL Server“sql2008”实例名称的IP为192.168.1.101 SQL Server实例在Node1上 远程SQL服务器源SSIS IP 192.168.1.55 SSIS负载传输速率似乎很慢。 资源监视器中的networking部分下显示SSISnetworking会话到远程SQL服务器源。 Image:DTExec.exe PID:8864 地址:192.168.1.55 发送(B /秒):968 接收(B /秒):1,682,022 总计(B /秒):1,682,990 但是加载的SSIS也出现在networking中。 通过networking通信似乎从本地节点运行到目标SQL服务器IP,因为DTexec在资源监视器 – networking下显示为与目标SQL服务器IP交谈。 Image:DTExec.exe PID:8864 地址:192.168.1.101 接收(B /秒):120 发送(B /秒):20,300,868 不幸的是,当我使用networking监视器来查看stream量时,来自源的dtexecstream量出现,但加载活动似乎并未使用任何networking接口,也无法看到。 运行此相同的程序包(针对相同的未更改的源)与一个不太强大的非群集框时,SSIS包运行速度加快了2倍的本地实例和Dtexec加载过程不显示在资源监视器中的networking部分。 只有源进程的Dtexecnetworking会话出现,速度相同。 在非群集情况下丢失的networkingstream量是否会给我带来刺激,还是我在寻找误导性的东西?
我可以访问使用“扭矩”(我认为)的集群,我们使用PBS脚本来提交作业。 我需要运行超过200个我在java中开发的应用程序的实例。 该应用程序作为P2Pnetworking的对等体,这意味着这些实例通过套接字相互通信。 我能够在集群上的单个节点上运行100个实例进行testing,但是在单个节点上运行200个实例时无法运行,而且我不能要求更多资源(mem,cores等)。 ) 我的问题是:我应该这样做吗? 用一个串口脚本,我将所有的实例一个接一个地发送到后台,然后等待它们? 这可以通过一个并行脚本完成吗?在这个脚本中,我可以请求2个节点,并在每个节点中实例化我的应用程序的100个实例? 在这种情况下,我还有其他一些问题:我该怎么做? 有没有保证两个职位同时运行? 所有200个实例必须同时运行。 为了形成P2Pnetworking,必须在串行作业中知道至less一个对等IP地址,我可以在脚本中获取节点IP地址,并将其作为parameter passing给应用程序,但是在具有2个节点的并行作业中,我怎么能做这个? 这是我目前正在使用的脚本的一部分… #PBS -l nodes=1:ppn=4 #PBS -l pmem=6GB #PBS -l walltime=00:20:00 IP=`/sbin/ifconfig eth0 | grep 'inet ' | awk '{print $2}' | sed 's/addr://'` PORT_PEER=3000 java -jar $JAR $JAR_PARAMS -ip=$IP -port=$PORT_PEER & # first peer, others connect to this one.. for i in […]
我们正在考虑使用具有冗余(2)光纤控制器的外部RAID子系统升级存储容量,每个控制器具有4个8 Gbps光纤端口。 我想通过HA Linux来访问这个存储系统。 理想情况下,我会将每个控制器的2个光纤端口连接到每个Linux服务器,然后通过10 Gbe接口导出NFS或iSCSI。 我已经看到很多关于DRBD的参考资料,但是所有这些参考资料都倾向于使用单独连接到每台计算机的块存储,而不是具有共享块存储设备,所以我不确定DRBD是否可以(或应该)用于这个案例。 想法?
有没有可能configurationkeepalived这种方式? 在正常状态下,VIP_1分配给SERVER_1和VIP_2分配给SERVER_2 在服务器发生故障时,所有的VIP服务器都会进入工作状态,服务器发生故障后,我们不会将他的VIP迁移回给他,但是由于某些内容复制的原因,我们需要手动执行它。 目前configuration: #SERVER_1 vrrp_sync_group VG1 { group { content } } vrrp_instance content { state BACKUP interface eth1 virtual_router_id 1 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1212 } virtual_ipaddress { 192.168.100.111/24 } } # SERVER_2 vrrp_sync_group VG1 { group { content } } vrrp_instance content { state BACKUP interface eth1 […]