将Microsoft与Linux集群

有没有人有Linux和Windows故障切换冗余集群的经验,如果是的话,你更喜欢哪个文件服务器和/或Web服务器?

有一点背景。 我们在Windows 2000下build立并pipe理了一个Microsoft群集几年。群集是一对Web服务器,它有一个相当大的RAID(用于时间)RAIDarrays,用于存储多媒体内容 – 数以百计的MP3广告服务于广播电台。 我们有许多事情我们不喜欢这种情况。 首先,Microsoft群集使用共享存储arrays。 尽pipe它是热插拔RAID,但所花费的只是驱动器上NTFS文件系统的轻微损坏,突然间ChkDsk跑了几个小时。

所以在下一个版本中,我们购买了一个名为NeverFail的产品 – http://www.neverfailgroup.com/该产品在主服务器和辅助服务器之间复制数据,自动保持数据块写入级别的同步。 这消除了共享存储的问题。 但它引入了自己的问题。 任何重新启动都需要数据重新同步,系统将分析所有内容进行同步。 在这个同步过程中,当系统启动并且可用时,在一个服务器上的文件less于一个terrabyte,这需要几个小时。 而典型的微软补丁会话需要几个这样的resyncs。 所以经常需要2天时间才能修补2台机器。 因此,我们发现我们自己拖延修补,而不是像我们应该那样频繁地做不理想的事情。 这个过程很敏感,需要特别遵循。

因此,我们正在考虑将主要网站的所有内容移到一对带有Linux HA和DRBD的LAMP盒子中。

所以我很好奇,如果有谁有经验pipe理Linux和Windows群集谁可能告诉我他们的经验。 具体而言,我们想知道重启时的重新同步时间等,以及pipe理这样一个Linux系统的总体经验。

虽然我们一直是一家窗口店,但我们现在有一个知道Linux的家伙,现在我也在学习,并且已经在我们的系统中增加了一些Linux机器,所以我们从pipe理的angular度对此进行了开放。

我喜欢Linux HA的东西,DRBD现在达到了非常高的水平。 在我遇到的情况下,Windows等价物从来没有提供任何接近相同级别的稳定性和可configuration性的东西。

首先几个意见,我相信别人会有更多的数据。 DRBD的时间比本机的Windows目录同步工具长,所以它可能更健壮。 其次,Windows 2008的DFS /复制技术已经被重写,performance更好。 它一直没有DRBD,但它承诺能够在多个服务器之间复制大型目录。 DFS /复制不像DRBD那样在块级别,只是文件/目录级别。 与DFS /复制完全重新同步在线,而不是脱机,所以你将不会有与neverfailgroup相同的服务中断。