我有一台HP ML370 G5服务器。 其中有四个146GB SAS磁盘和两个configuration为RAID 0的300GB SAS磁盘。我遇到了一个磁盘问题。 Windows服务器事件查看器显示下面的错误: 位于服务器插槽1中的arrays控制器P400上configuration的逻辑驱动器2在来自卷的读取/写入请求期间返回致命错误。 逻辑块地址6331648,块计数256和命令32取自故障的逻辑I / O请求。 位于服务器插槽1中的arrays控制器P400也报告最后的物理驱动器报告致命的错误状况(与这个逻辑请求相关),位于总线0和ID1上。 我如何确定我的所有磁盘是否工作正常? 并检查我的磁盘坏块!
最近我在RAIDarrays中失去了一个驱动器(从系统收到一封电子邮件,告诉我这是非常好的),经过一些驱动器的洗牌和换入新驱动器,我都安全可靠。 但一路上,我发现这个线程 ,这让我想到如何实际testing磁盘错误和其他坏事情,而没有他们真正发生。 当我运行build议的tar命令时: tar c /my/raid/device/mount/point > /dev/null 它在几秒钟内完成,这显然不足以让系统实际读取所有文件(远远超过TiB) – 所以我想我的第一个问题是为什么这可能不起作用。 如果我做这样的事情: find . -type f | xargs md5sum 该命令运行得很好,需要很长时间才能完成…但是它也会加载CPU进行所有的求和。 这可能也可能不是比“焦油”更快或更容易 – 我更加好奇,为什么tar命令没有按预期工作。 无论如何 – 第二个问题,更一般地说:是否有办法按照这些方法做一些事情来进行故障注入testing: find(或创build)我不关心的文件… 确定磁盘上的块是用来存储这个特定的文件… 假的软件/操作系统认为这个块是“坏”(我认为标记它不知何故,这是我的知识用完的地方) 运行我的testing脚本和/或错误检查例程 确认数组都报告错误,并执行任何其他纠正措施是必要的… 将该块/扇区再次标记为“好”,以便系统/操作系统正常使用它。 这似乎是可行的,但我没有足够的Linux工具的详细知识,这将允许我标记一个块在设备级别不好,实际上是一个坏块… 这个想法? 或者,如果有更好的方法来解决这个问题,我很高兴听到这个…
我有两个物理服务器,每个都有:2个CPU(每个6个核心),4个networking接口,128GB RAM,4个200GB SDD,2个1TB SAS硬盘和1个可configuration交换机,如思科Catalyst支持vlans。 我需要在故障转移模式下在这两台服务器上托pipe一个Web应用程序。 我想使用KVM虚拟化(很可能是Ubuntu)。 每台服务器上都会有许多虚拟机。 有VM HAProxy负载平衡。 在HAProxy的背后将会有nginx和应用服务器(Gunicorn)。 还有PostgreSQL数据库和memchad服务器。 我还需要设置pfsense才能build立VPN连接以远程configuration服务器。 问题: 在没有使用任何物理共享存储的情况下,是否有可能将两台物理服务器上的所有虚拟机复制以实现容错? 因此,即使其中一台物理服务器出现故障,另一台服务器也将允许整个设置工作。 在虚拟机上运行时,pfsense可以像防火墙和路由器一样运行吗? 我可以在每台物理服务器上安装pfsense VM吗? 我的意思是如果一台物理服务器上的pfsence虚拟机崩溃另一台物理服务器上的其他pfsense虚拟机将接pipe并继续运行。 我知道这些问题太广泛了。 所以,如果你需要任何澄清问他们。 提前致谢。
有人可以分享他们在多个FreeBSD机器之间构build分布式镜像文件系统的经验吗? I. e。 我们有两个(三,四…)服务器和每个安装的特殊分区“part1”。 我们在machine1上对其进行一些更改,这些更改立即在所有其他机器的“part1”上生效。 在我们的“集群”上经常没有写操作,但经常是读操作(比如高负载的Internet项目的静态Web数据)。 我们希望同时对所有机器进行对称访问(不要“阻止”访问其中一个)。 我们的目标是提供高可用性,容错和减less(可能热插拔添加和删除这个“群集”的成员)。 是否有像Ceph for Linux这样的本地技术?
我一直在阅读OpenStack,以及我们如何重新创buildEC2 / S3风格的云以用于我们的内部开发,而且我很难find有关OpenStack云控制器如何提供云pipe理服务冗余的信息。 我知道我可以设置多个Swift和Nova节点,但是没有一个文档/ article / howto / wiki包含以下信息: a)如果云控制器节点死亡会发生什么情况; 和b)如何设置冗余云控制器。 在我看来,虽然它具有大规模的可扩展性,但是在OpenStack中还是有一个很大的单点故障。 谁可以在OpenStack上有更多的经验,请告诉我们在高可用性方面它是如何工作的?
我们正在审查新客户带给我们的系统要求。 他们在医疗领域工作,他们希望我们托pipe的系统必须至less具有高可用性,并且最好具有容错能力。 我们正在考虑授权VMWare Enterprise来获得他们的FT和兼容硬件的HA和FTfunction。 没有biggie – 10Gbs以太网价格下降,而1Gb以太网则不成问题。 但客户的要求之一是我们有一个房地产(不是金融时报,但金融时报将是很好的)网站是在一个完全不同的城市。 澳大利亚的带宽是非常昂贵的,我甚至不知道是否有可能在悉尼和墨尔本之间获得1Gbps的连接(相距约1000公里/ 600英里)。 我可能很难在两个城市之间获得100Mbps的连接。 我有什么select提供高可用性系统? 不必与VMWare,但如果一个网站宕机,我需要能够login到第二个网站,点击开始button,并开始运行。
题 一般来说,在名称服务器上使用多个顶级域名(TLD)是一个好主意吗? 我应该如何select哪个顶级域名作为我的NS名称的根服务器? 更多信息 我将800个DNS区域切换到外包的DNS提供商。 我原本计划将区域名称设置为nsX.company.com,但认为最好有多个TLD,如.net , .org和.info 由于我计划在company.com上支持DNSSec,我认为所有的第一层名称服务器也必须支持它。 这个问题的部分灵感来自我们的提供商UltraDNS。 在我们域名的configuration屏幕中,他们主动validation并提醒我们,如果我们的域名服务器不是: pdns1.ultradns.net pdns2.ultradns.net pdns3.ultradns.org pdns4.ultradns.org pdns5.ultradna.info pdns6.ultradns.co.uk
有没有办法在SQL Server 2008 R2上提供100%的正常运行时间? 根据我的经验,不同复制方法的停机时间是: 日志传送:很多(仅限DR) 镜像w。 NLB:约45秒 聚类:约5-15秒 所有这些解决scheme都涉及从源头上删除的所有连接,所以如果宕机时间过长或者应用程序的网关在任务中间不支持重新连接,那么您是不走运的。 解决这个问题的唯一方法就是把集群抽象出一个层次(通过虚拟化,然后启用VMWare FT.Yeck,把它运行在一个四插槽的32核系统上,祝你好运)。 有没有其他方式提供SQL Server的100%正常运行时间?
我似乎无法在vSphere 5文档中心find这些问题的答案,所以如果您知道这些问题的任何方面,请分享。 为高可用性(HA)configuration的故障虚拟机会发生什么情况? 容错(FT)? 它会自动停止并释放其资源(但重新启动(HA)或辅助实例接pipe(FT))? debugging发生故障的虚拟机的典型方法是什么? 通过日志或VMware VM监视UI? 会通知用户虚拟机故障? 是否有可能克隆一个虚拟机重新启动或故障转移到后来debugging发生了什么? 谢谢!!
我有兴趣在Amazon EC2上构build两个具有故障转移function的容错/冗余NFS服务器。 我熟悉DRBD,Heartbeat等工具/技术。亚马逊是否提供了通过他们的平台实现这一目标的具体方式? 一个合适的例子可能是文件保存在一个单独的冗余EBS上 – 如果发生故障,将从预先构build的AMI自动启动一个新实例,安装EBS卷,并且无缝地转换IP地址。 这可能吗? 有没有比亚马逊更好的平台? 你能给我一个关于我们正在讨论的基础架构的广泛的概念吗?