我们有一个在wondows 2008R2操作系统上运行的sql server 2008主动/主动集群。 14GB内存,4个CPU。 我们已经为sql server设置了12GB的上限。 我们正在运行代理作业,将300万条logging加载到数据库。 在此加载期间,作业失败,群集似乎尝试故障转移到另一个节点,但未成功,即群集地址不再可访问。 我们必须手动使群集节点失效。 在查看任务pipe理器的负载过程中,我们可以看到,内存使用量达到了最大12.5GB,并且CPU在所有4个CPU上都达到了100%,但是大部分时间平均大约为60%。 我想我的问题是,如果内存或CPU受到重创,群集会尝试故障转移吗? 还是我吠叫错了树? 还有什么想法,为什么它不会完全失败? 我们已经爬过了日志,其中有很多,并找不到有用的东西。 我们也尝试重新创build这个问题,但是稍后它会成功运行。 另外300万行似乎不是很多,但在资源方面,14GB内存和4xCPU不够? 进一步的信息,我们今天再次运行负载,并损坏数据库! 我们收到了错误消息:LogWriter:Operating system error 170.它看起来像在负载繁重的情况下,sql群集试图故障转移,并且因此迁移了LUN(或驱动器),这意味着该磁盘不再可访问。 (这只是我们的理论)。 数据库现在是“可疑”,需要恢复。 上面的170错误也表明,在故障转移到另一个节点,SQL服务无法启动,因为它已经在使用,因此它不能完全故障切换? 但是我想知道为什么它需要首先故障转移? 我的假设可能是完全错误的,所以任何想法,将不胜感激。
可能重复: Sql服务器主动/被动与主动/主动集群 我有一个在DBMS项目,只是我需要做什么像大标题。 这里简要介绍一下这个项目: 安装3个WIN2K8 R2其中一个域控制器(简单) 在非DC节点上,将SQL安装为集群节点。使用passive / active。 (无法解释的) 使用客户端来testing环境(简单) 只是步骤2我需要一些信息。 任何想法都会很棒。
我正在为openx组build一个集群,并对集群文件系统vs rsync提出了一个问题。 这是我目前的设置: 负载平衡的2个主力箱来提供服务和计数广告(使用“分布式统计”方法)这些服务器将拥有自己的数据库,每隔10分钟将其迁移到主数据库。 – 一个pipe理员/桂盒直接连接到“主”数据库(只是为了拉动报告,贩运等) – 一个数据库框,将容纳数据库 一旦我得到在群集上运行的服务器,如果我决定将横幅上传到“pipe理员”框,它只存在于pipe理员框中。 这可能会导致群集尝试拉取图像时出现问题。 为了解决这个问题,我已经考虑过对“images”目录进行rsyncing(每10分钟一次,或者只是设置一个基于群集的文件系统来容纳所有的图像。 哪个更好? 还有没有想过的另一种select? 谢谢! 我正在按照这里写的方法: http : //blog.openx.org/10/serving-billions-of-ads-using-openx/
我必须创build一个SSI集群。 例如,你推荐使用openssi还是kerrighed(指最新版本)? 有更好的吗? 在网上,没有什么最近。
我们正在运行基于服务器2008 R2和iSCSI存储arrays的3节点故障转移群集文件服务。 我们最近将所有存储从一个LUN上的一个群集文件服务迁移到新LUN上的新文件服务。 旧的文件服务有一些存储报告分配发送大型文件报告等… 由于完全从系统中删除旧的LUN,文件服务器资源pipe理器不会让我们在任何驱动器上创build更多的存储报告。 在删除旧的LUN之前,我们并没有删除旧的报告,而是将其删除。 我们select新的存储报告,添加驱动器或文件夹,设置报告数据部分。 传递和计划选项卡都是不可访问的,出现错误“文件服务器资源pipe理器服务遇到意外错误”。 事件日志列出了此错误的事件ID 8197: “文件服务器资源pipe理器服务错误:意外的错误。 错误特定的详细信息:错误:ISClusResource :: get_Disk(…),0x80070490,找不到元素。 我们尝试将文件服务移动到每个群集节点 他们都给出了同样的错误。 尝试从所有服务器中删除FSRMangular色并重新添加。 已经检查了服务器驱动器上的FSRM系统卷信息文件夹,以便查看旧LUN。 任何关于如何解决这个问题的build议? 提前致谢。
我正在使用ClusterSSH工具(使用cssh命令)pipe理4到8台机器之间的集群。 默认情况下,到集群主机的每个terminal都是平铺的,并且打开到前一个的右侧,所以到达主机1-4的terminal将被打开,如: 1 2 3 4 当我连接到一个8主机集群时,最终有8个terminal被平铺在两个显示器上,我通常需要将窗口拖回到一个合理的布局。 我正在寻找的方法是在网格中打开它们,以便terminal布局看起来更像: 1 2 3 4 包括一个8主机群集类似的东西。 如果应用程序不直接支持它,是否还有其他简单的脚本/方法/命令来布局一组窗口? 如果有帮助,我主要使用Ubuntu(Gnome桌面)。
我有7个Mac专业人士和iMac需要连接到相同的存储。 我正在进行基于非MPI的数值模拟,因此传输速率必须快,但不能快速。 我正在考虑安装一个Promise Pegasus Thunderbolt RAID,连接到Mac mini运行的Lion服务器以访问controll /漫游homer目录。 Mac Pros和iMacs将通过1Gb以太网连接。 我的问题是这个设置的瓶颈在哪里。 服务器软件/硬件? networking? 还有什么我忘记了?
我有一个nas连接到我的群集。 NAS拥有我们所有的主目录。 当我上周进行了一系列实验时,将一个1 GB的文件保存到NAS需要大约30秒。 如果我对本地磁盘执行相同操作,则需要18秒。 但是,当我今天尝试同样的过程时,需要150秒。 我不确定是什么问题。 有人可以帮我指出这个问题吗? 是否有可能找出哪个进程正在访问NAS或有多lessNAS带宽正在使用? 谢谢你的帮助。 -Sethu
我有两个队伍在SGE出于不同的目的。 他们每个人都有插槽的限制。 我想要的是只有一定数量的作业提交到队列中,即使其他队列处于空闲状态。 但是,我发现附加作业被分配到第二个队列。 我应该如何改变configuration?
我正在使用三个Supermicro MicroCloud(3U中的8个节点,很好而紧密)构build一个24节点的php-fpm农场, 起初,我打算让他们每个节点都有一个一次性硬盘,CentOS上(6或5无关紧要),但后来我认为无盘运行将节省硬盘的初始购买和replace,节省维护时间和在他们之上,我可以肯定他们是完全相同的,故障转移将是容易的,并且重build崩溃之一将花费零工作(在软件大小上) 所以,我设法设置了一个pipe理器,用–installroot做了一个新的安装,并用正确的IP,主机名(由DHCPd提供)启动所有的节点,并且从pipe理器只读地挂载了根fs。 在/ etc / sysconfig / readonly-root我有$ READONLY =是的,在/ etc / statetab我有各种文件和目录,我认为应该在重新启动之间持续。 现在在这个问题上,/ etc / statetab中的所有条目都出现在pipe理器快照目录中,其中一些是NFS挂载正在工作,但是/ etc / sysconfig / network这样的条目不是(而/ etc / sysconfig / network -scripts / ifcfg-eth0是) 对于一个问题是一个很长的post,但我在这里发布他们,希望如果有人知道任何其他方式来实现我想要做的事情可以指导我正确的方向。