我们有几十个用于SQL Server 2008和2008 R2 Enterprise / Datacenter的Win2008和2008R2企业集群。 过去,我们在全球的另一台服务器上出现了许多随机故障转移和“networking分区”错误的问题。 这主要是在更新网卡驱动程序和卸载Forefront端点保护解决(不知道如何发挥了一切,但它帮助)。 快到六月份到十一月,我们从SCOM和事件日志中获得了不断的警报,这些群集(特别是两个群集)每周几次都出现“networking分区”错误,但实际上并没有发生故障 。 SQL Server仍在运行,Web前端没有发现服务中断。 这些错误似乎来源于“被动”节点,并通过networking进行复制(我们收到来自被动,然后活动,然后是Web前端的第一个警报),但是所有节点/networking适配器/磁盘/应用程序/ IP /网站保持正常运行。 当群集,networking或任何东西没有出现问题时,我们无法find导致这些错误不断出现的原因。 任何有关我们可以去调查的原因或可能的方向的想法都会很好。
我只是在一个相当体面的婴儿(IBM x3650 M3)上安装了一个MySQL集群,配有24GB内存,至强6核,SAS 6Gbps硬盘。 运行Debian Lenny 5. 64位。 Ndb版本是7.1.9a。 我们在MyISAM上的数据库大小约为3.2 GB。 ndbengine的Ndb_size估计是58GB。 关于我的数据库的一些信息如下。 全球共有150个常用表格。 每个客户130张桌子。 所以它是这样的,130×115(客户)= 14950表。 在一个数据库上有14000个表是正常的还是通常的? 我们这样做的原因是,易维护和每个客户端的定制。 现在的问题是,ndb集群只能支持20320个表。 但如果我没有错,它可以支持一个表中的50亿行。 我真正的头痛是我的集群数据节点不到两分钟就启动出来的任何数据。 但只要将我的表转换为ndb,那么只有2000个表,数据节点至less需要30到40分钟才能启动。 这是正常的吗? 如果我把所有的表格转换成ndb,会花费更长的时间吗? 或者让我们说,如果将我的14000个表的数据合并到一个130个表中,它会有帮助吗? 还是有什么白痴我在做什么? 我将尽快附上我的config.ini文件。 这里是我的configuration简单的概述 Datamemory = 14G Indexmemory = 3GB Maxnooftable = 14000 Maxnoofattributes = 78000 我只是先用2000个表testing这些值。 请指教,如何提高启动速度。 请指出我要出错的地方。 在此先感谢你们!
我们有一个高可用性的NFS环境,使用暴露给客户端的DRBD,心跳线和nfs(与以下https://help.ubuntu.com/community/HighlyAvailableNFS相似)。 这似乎是一个相当普遍和很好的支持HA nfs的方法,对于我们来说,只要一个预见就能很好地工作。 当心跳执行切换时,nfs客户端全部挂起约60-120秒。 我可以看到,只需要5-10秒的时间来完成接pipe并获得nfs(我甚至可以手动挂载)。 但是,连接的客户端在重新build立连接之前似乎要等待一段时间。 我已经尝试了以下成功, 确保/ var / lib / nfs存储在drdb磁盘上,并将其链接回到/ var / lib UDP或TCP客户端连接 NFS服务器导出在导出中定义了fsid。 玩客户端timeo =在安装 硬/软坐骑 安装如下; 的NFSv4 Ubuntu LTS服务器和客户端 当前客户端安装选项= proto = tcp,noauto,bg,intr,hard,noatime,nodiratime,nosuid,noexec 笔记 我注意到/ var / lib / nfs / rmtab总是空的,我无法解决原因。 这可能是原因吗? 客户端是GUI较less的Ubuntu 10.4 LAMP堆栈服务器。 当客户失速时,任何试图访问该共享的程序都会停止。 例如,做一个“df”会挂在nfs挂载线上的ssh会话,直到nfs回来。 任何build议将是最受欢迎的。
具有多个同步提交辅助副本的SQL Server可用性组如何决定在触发自动故障转移时哪个辅助副本将成为新的主副本? 在文档中找不到关于此的任何信息。
我有一个8个独立的Web服务器集群,每个都运行nginx。 他们都托pipe相同的网站,并与rsync同步。 另外,每台服务器都有8个不同的IP地址。 根据一些业务逻辑,我托pipe的网站正在被定向到不同的IP。 有什么办法可以在所有服务器之间同步configuration文件,但只更改每个IP上的configuration文件? 例如,在每个服务器上都有一个nginx.conf文件: @IP1 = '1.1.1.1'; @IP2 = '2.2.2.2'; include 'sites.conf'; 然后同步sites.conf并让它变成这样: server { listen @IP1:80; … //more configurations here } 有没有可能做这样的事情?
我已经在我的木偶大师身上设置了rrd报告+图表,我的节点按预期报告,我可以看到“变化”和“时间”图表,但是我错过了“资源”(html和每周每月每年图表)元素。 注意resources.rrd文件存在,只是puppetmaster不生成html和png
有人可以告诉我,如果这是一个高性能计算或高可用性mySQL集群? 有一个设置的图片 。 这是他们谈论的config.ini一部分 [ndbd default] NoOfReplicas=2 # Number of replicas NoOfReplicas确定我是否拥有HPC或HA集群是否正确?
我们有一个老化的Windows 2003文件服务器群集,我们希望迁移到驻留在Hyper-V R2安装中的独立Windows Server 2008 R2虚拟机。 我们看不到需要保持群集,因为Hyper-V现在提供了我们的故障转移/冗余。 通常,在独立的文件服务器迁移中,我们迁移数据,保留NTFS权限,然后从registry导出共享权限,并将它们导入新服务器。 这在这种情况下不可能出现,因为2003群集存储共享权限的方式不同。 我的问题是,如何执行这种types的迁移? 这甚至有可能吗? 我目前的领导是文件服务器迁移工具包,但是我从网上找不到有关从群集迁移到独立的信息,只是相反。 请帮忙。 更新:我们最终得到的数据复制(权限不变),但不得不手动重新创build共享。 这是一个有点痛苦,但最终解决了。
RH / CentOS集群和心跳之间有什么主要的区别(除了UI之外)? 我有一些使用心跳的经验,但是想知道RH / CentOS提供了什么,查看看起来差不多一样的文档,以及共享存储支持(可以通过GFS在心跳上完成)。
在我的组织中,我们有一个处理和存储系统,分布在二十几台Linux机器上,可处理超过1 PB的数据。 现在的系统是非常特殊的; 处理自动化和数据pipe理由一系列独立机器上的大型Perl程序处理。 我正在研究分布式处理和存储系统,以便于维护,通过复制平均分配负载和数据,并在磁盘空间和计算能力上增长。 系统需要能够处理数百万个文件,大小在50兆字节到50千兆字节之间。 一旦创build,文件将不会被追加,只有在需要时才被完全replace。 这些文件需要通过HTTP访问,以供客户下载。 现在,perl脚本(我完全控制了)调用了一系列其他程序(我没有控制权,因为它们是封闭的源代码),从本质上将一个数据集转换成另一个数据集。 没有数据挖掘发生在这里。 这里是我正在寻找的一个快速列表: 可靠性:这些数据必须能够在99%的时间内通过HTTP访问,所以我需要在集群中进行数据复制。 可伸缩性:我希望能够轻松添加更多处理能力和存储,并重新平衡整个群集中的数据。 分布式处理:简单和自动的作业调度和负载平衡,适合我上面简要描述的处理工作stream程。 数据位置感知:不是严格要求,而是可取的。 由于数据和处理将在同一组节点上,所以我希望作业调度程序在或靠近实际数据的节点上调度作业以减lessnetworkingstream量。 这是我迄今为止所看到的: 存储pipe理: GlusterFS:看起来非常好,易于使用,但似乎没有办法找出文件实际驻留的节点,以提供给作业调度器。 GPFS:看起来像集群文件系统的黄金标准。 满足我的大部分要求,除了glusterfs,数据位置感知。 Ceph:现在似乎还不成熟。 分布式处理: Sun Grid Engine:我有很多这方面的经验,使用比较简单(一旦configuration正确)。 但是甲骨文已经把握住了它的冰冷之处,而且看起来不再是那么理想。 都: Hadoop / HDFS:乍一看,hadoop看起来非常适合我的情况。 分布式存储和作业调度,这是我发现的唯一一件能够提供我想要的数据位置感知function的工具。 但是我不喜欢这个名字是一个单一的失败点。 另外,我不确定MapReduce范例是否适合我拥有的处理工作streamtypes。 您似乎需要专门为MapReduce编写所有软件,而不是将Hadoop用作通用作业调度程序。 OpenStack:我已经做了一些阅读,但是我很难判断它是否适合我的问题。 有没有人有意见或build议的技术,以适应我的问题呢? 任何build议或意见将不胜感激。 谢谢!