Articles of 故障转移

SAN重build后无法销毁Windows 2008 R2故障转移群集

我为sql 2008主动/被动群集创build了一个windows 2008 r2故障转移群集。 这两个节点群集使用SAN设备作为仲裁磁盘资源以及MSDTC资源。 那么….我决定重新configurationSAN设备,但是我并没有首先破坏集群。 既然仲裁磁盘和mstdc磁盘完全没有了,那么集群显然不能工作。 但是,我甚至无法摧毁集群并重新开始。 我已经尝试从Windows群集工具,以及命令行。 我能够得到群集服务,开始使用“/ fixquorum”参数。 这样做后,我能够从群集中删除被动节点,但它不会让我摧毁群集,因为默认资源组和msdtc仍然作为资源附加。 我试图从GUI工具以及命令行中删除这些资源。 它会冻结几分钟,并使程序崩溃,甚至一旦它甚至BSOD的服务器。 有人可以build议如何摧毁这个集群,所以我可以重新开始?

什么是最有效的方式来设置一个Linuxnetworking服务器手动故障转移

我目前使用apache,mysql和sshpipe理一个运行ubuntu linux的小型web服务器。 我使用rsync备份到另一台服务器,但是我将它备份到一个/ backup目录。 我想让它设置在第一台服务器出现故障的地方,我可以改变第二台服务器的IP地址,让所有用户,文件,数据库等准备就绪。 有没有人有任何build议最简单/最好的方式去做呢? 注意事项 用户 数据库 Apacheconfiguration 档 确保两个盒子上都安装了相同的软件。 (可能需要在前面做这个)

CSV上Hyper-V存储性能惨不忍睹

我最近设置了一个新的环境,包括: QSAN存储与10Gibnetworking – Mellanox交换机10Gib – 4个物理节点连接到LAN和SAN 10Gib 物理主机使用MPIO连接到SAN存储,在所有到SAN的物理服务器上进行性能testing,并为单个SSD(在群集中以CSV显示)显示8K随机写入200MB / s。 testing使用diskspd进行。 现在我在群集共享卷上创build了一个Hyper-V机器,并在虚拟机内testing了diskspd:8k随机写入:0.5MB / s 当检查Hyper-V guest虚拟机内的磁盘延迟时,我会看到类似10秒的值。 我为此感到茫然,为何如此。 我猜这不是SAN存储,也不是iSCSI或MPIO设置,因为我在物理主机上进行testing时会得到预期的结果。 所以Hyper-Vconfiguration肯定有问题。 我正在对Hyper-V guest虚拟机中的C:驱动器进行testing,这是一个固定大小的IDE驱动器(因为SCSI将无法启动)。 SAN卷使用64k格式化 CSV与Hyper-V来宾拥有相同的主机,… 更新:不幸的是Guest-VM是第一代。

Ubuntu从以太网到ADSL调制解调器故障切换到USB 3Gencryption狗

我有一个互联网连接的Ubuntu服务器,通过以太网连接到住宅ADSL线路。 这在大多数情况下都是足够的,但是我不能依赖ADSL链路来达到我想要的那么可靠。 墨菲定律已经规定,当最不方便的时候,就会出现停机时间。 我想使用“即用即用”3G USBencryption狗来提供故障切换。 我缺乏关于适用于其他人的示例configuration的信息,以及我用于最合适(便宜)的硬件的信息。 其目的是当我的ADSL线路断开时,服务器检测到这一点,并拨打3G服务 – 监控ADSL线路,并在连接恢复时无缝切换。 我关心的主要服务是OpenVPN隧道 – 通过UDP到远程服务器。 另一个有用的服务将是鱿鱼 – 所以当ADSL断开连接时,我仍然可以从我的局域网访问networking。 问题: 要build立这个有多困难? 我会被迫“滚出自己的” – 还是有我忽略的软件包/ howtos? 推荐什么(便宜的)硬件(主要关心无人值守的可靠性)? 已经解决了这个问题的任何成功或失败的轶事?

Magento托pipe预算

我必须为Magento做一个设置。 我的约束主要是便于安装和容错/故障切换。 而且成本是一个问题。 我有三个相同的物理服务器来完成这项工作。 每个服务器节点在软件RAID 1configuration中都有一个i7四核,16GB RAM和2x3TB HD。 每个节点运行Ubuntu 12.04。 马上。 我有一个额外的IP地址可以路由到任何这些节点。 Magento商店有最大。 1000个产品,其中50%是捆绑产品。 我估计,最大。 10个用户同时激活。 这使我得出结论,performance不是这里的重中之重。 我的第一个设置想法 一个节点(lb)运行nginx作为负载均衡器。 附加IP与域名一起使用,并默认路由到此节点。 Nginx将负载平均分配给另外两个节点(shop1,shop2)。 Shop1和Shop2configuration相同:每台服务器运行Apache2和MySQL。 Mysqlsconfiguration了主/从复制。 我的故障转移策略: Lb失败=>将IP路由到shop1(MySQL master),继续。 Shop1失败=> Lb会自动处理,在shop2上升级MySQL从属掌握,重新configurationMagento使用shop2进行写入,继续。 Shop2失败=> Lb会自动处理,继续。 这是一个理智的战略? 有没有人做过与Magento类似的设置? 我的第二个设置想法 另一种方法是使用drbd在shop1和shop2上存储MySQL数据文件。 我明白,在这种情况下,只有一个节点/ MySQL实例可以是活动的,而另一个被用作热备份。 所以如果shop1失败,我会在shop2上启动MySQL,将IP路由到shop2,然后继续。 我喜欢这一点,因为MySQL设置更容易,节点可以configuration99%相同。 所以在这种情况下,负载平衡器变得毫无用处,我有一个备用服务器。 我的第三个设置想法 第三种方式可能是MySQL数据库的主 – 主复制。 然而,在我的select中这可能是棘手的,因为Magento不是针对这种情况构build的(例如,新行的冲突ID)。 直到听说过一个实例,我才会这样做。 你能给我一个build议,哪条路要走? 似乎没有一个“好”的方法来做到这一点。 例如,我读博客文章描述Magento的MySQL主/从设置,但在其他地方,我读到,当奴隶落后于主人(例如,当订单被放置,顾客可能被创build两次)时,数据可能被重复。 我有点迷路了

Linux相当于用于故障转移防火墙/路由的pfsync + carp

我目前使用一个Linux机箱来处理我的防火墙/ NAT使用iptables。 它有两个网卡,一个连接到局域网交换机,一个连接到我们的出口互联网提供商。 我正在考虑把这个盒子升级到两个盒子,用于冗余,并增加第二个互联网提供商到解决scheme。 这意味着我需要四个端口我相信(纠正我,如果我错了) 出口互联网链接#1 出口互联网链接#2 局域网端口 在两个盒子之间交换故障转移的目的 我读过鲤鱼+ pfsync是一个很好的解决scheme。 目前你们大多数人在使用什么? 在Linux有没有一个等效的解决scheme? 对于像上面那样的类似设置,现在对于热切换有一些build议,就像今天的configuration一样简单。

当负载平衡器失败时会发生什么?

假设我正在使用Amazon的EC2负载平衡器。 我有它挂钩了两个实例(对不起,如果我的术语是不正确的)。 如果负载平衡器失败会发生什么? 两个实例现在都不能工作吗?

访问位于NFS挂载点底层文件系统上的文件

也许这是一个奇怪的要求,但这与以下问题的相反: 是否可以在不卸载NFS内容的情况下查看底层NFS安装的内容? 我有一个安排,在多个远程站点的Linux服务器从中央服务器(所有的CentOS 5.x)挂载一个NFS共享。 认为: /opt/software或类似的东西。 如果一切正常,则客户机系统从主服务器挂载NFS导出,并且运行正常。 共享中包含的数据不会经常更改(也许是每周)。 我担心连接到主NFS服务器(NFS服务器停机,光纤切断等)的情况。 由于共享数据不会经常变化,所以我希望这些系统能够独立运行,如果他们失去了NFS挂载。 说安装程序消失了,我想使用NFS安装在同一位置下的/opt/software的本地文件。 另外,我会保持每天同步这些文件。 NFS挂载是可读/写的,因为可以从任何客户站点更改已挂载的卷。 这可能吗? 如何访问(或覆盖)底层目录中的文件? 可能会有超时问题吗? 有没有任何安装选项/技巧可以帮助这个?

如何执行cron作业故障转移?

使用两个Debian服务器,我需要为cron作业build立强大的故障转移环境,一次只能在一台服务器上调用。 在/etc/cron.d中移动一个文件应该可以做到,但是有一个简单的HA解决scheme来执行这样的操作吗? 如果可能的话不要心跳;)

如果后端处于closures状态,nginx使用代理caching

如果后端服务器closures,我需要nginx代理使用caching: 这是我的configuration。 但似乎是nginx使用caching没有检查后端服务器。 http { # … proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_cache_path /tmp/nginx levels=1:2 keys_zone=tmpzone:10m inactive=60m; proxy_cache_key "$scheme$request_method$host$request_uri"; server { server_name _; location / { proxy_connect_timeout 5s; proxy_read_timeout 5s; proxy_cache tmpzone; proxy_cache_valid 200 304 1d; proxy_cache_use_stale error timeout invalid_header updating http_500 http_502 http_503 http_504; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $remote_addr; […]