在运行文件服务器和iSCSI目标服务器angular色的故障转移群集中有一对Server 2016 VM。 以前,每个angular色都是在故障转移群集pipe理器中单独定义的,但由于需要iSCSI目标服务器能够将其虚拟磁盘存储在与文件服务器群集卷相同的存储上,所以iSCSI目标服务器服务/服务器名称/存储被转移到文件服务器angular色。 传输完成后,我无法通过服务器pipe理器应用程序添加新的iSCSI磁盘。 新的iSCSI虚拟磁盘向导表示没有可用的合格服务器。 iSCSI目标服务器本身继续运行,并允许启动器连接,我可以通过PowerShell添加iSCSI虚拟磁盘和目标,而不会出现问题。 通过PowerShell创build的新磁盘和目标确实显示在服务器pipe理器中。 如果我将iSCSI目标服务器服务/服务器名称/存储转移回iSCSI目标服务器angular色,则服务器pipe理器允许我添加新的iSCSI磁盘。 有谁知道什么(如果有的话)可以做,让我通过服务器pipe理器来pipe理iSCSI目标服务器? 我已经尝试将angular色转移到集群中的其他节点,并重新启动服务器pipe理器,以防万一有caching的数据,但它仍然不允许我添加新的iSCSI虚拟磁盘。
有没有简单的方法来确定我连接的Oracle 11g R2系统的哪个RAC节点? 我正在尝试执行一些故障转移testing,并且希望确保我的应用程序正确连接到一个节点,并且在此节点节点closures时,平滑过渡到另一个节点,而在前端没有任何明显的延迟。 也许值得一提的是我们利用TAF。 我考虑过使用企业pipe理器,但我想当我连接到一个节点运行时,这个节点宕机,我真的没有机会监控节点的连接状态。
我有一个服务器2008 R2 DHCP故障转移群集服务两个VLAN – 办公室networking和访客WiFinetworking。 故障转移群集的两个成员都是虚拟机(ESXi),并使用VM内的iSCSI Initator作为其共享存储。 群集中的每个节点还运行正常工作的其他FO群集服务。 但是,使用DHCP服务,在过去的三个星期内,它开始只记得提供的一个DHCP地址。 这是一个真正的问题,因为它基本上开始提供导致整个networkingIP冲突的使用中的地址。 每隔一段时间,它都会用“BAD_ADDRESS”条目填满它的表格,以覆盖它find的使用中的IP,但是随后它们也会消失。 这就是目前租赁的范围。 列出的只有一个非保留租约: 当我将iPhone连接到networking时,需要花费大约45秒的时间来获取IP地址: 而当它出现时,它不会出现在租赁名单中的任何地方 。 这意味着下一次别人连接一个新设备时,它们将以相同的IP地址结束,然后在列表中标记一个BAD_ADDRESS – 直到下一个设备连接,当整个事件将会丢失,标记它们全部: 我能想到的唯一的事情就是,这些集群成员曾经是Hyper-V成员,几乎在这些问题发生的同一时间迁移到了ESXi – 但我不能100%确定。
Backround:我们需要在小型办公环境中使用HA服务器,并且正在寻找DRBD来提供它。 我们只有约100GB需要在HA服务器上,服务器负载将会非常低。 如果我们存档较旧的办公室数据,每年的数据可能会增加大约10%-25%,如果我们不这样做,每年可能增加50%-75%。 要点是我们使用消费品级和使用企业级硬件的混合,如果我们不预先规划它,这将是一个问题; 而预先构build的高质量服务器也会失败,所以冗余服务器似乎是要走的路。 计划:我们认为find(2)最好的“我们的降压”服务器并同步它们是件好事。 我们只需要支持SATA / SAS的服务器和空间就可以为价格提供尽可能多的驱动器。 这些服务器好像可以有$ 100- $ 200(+一些零件和额外的驱动器),如果你达成协议。 这在理论上意味着一台服务器可能会失败,如果我们花了几天的时间去解决问题,只要我们没有再次发生巧合的故障,事情就会一直响起,直到我们的IT部门(我)能够实现。 我们将使用Debian作为操作系统。 一些问题 (A)DRBD如何处理驱动器或控制器故障? 这就是显示存储驱动程序之前的DRBD,那么当控制器发生故障并写入脏数据或驱动器发生故障但不立即崩溃时会发生什么情况? 数据是否镜像到其他服务器,在这种情况下是否存在跨服务器数据损坏的风险? (B)DRBD的失败点是什么? 这在理论上只要一台服务器启动并运行就没有问题了。 但是我们知道存在一些问题,那么使用DRBD的失败模式是什么,因为它们大多数在理论上应该是软件? 如果我们要为此有两台服务器,那么使用MYSQL和Apache来运行虚拟机的数据库和Web服务器复制是否合理? (我假设如此) DRBD是否足够可靠? 如果不是,某些任务是不可靠的,或者是更随机的。 search出现了各种各样的问题的人,但这是互联网与看似更坏的信息比好。 如果数据通过LAN进行同步,DRBD是否使用了两倍的带宽? 也就是说,我们应该把NICS加倍,做一些链路聚合和中继? 然后,也许把他们分开的路由器在不同的电路和不同的房间UPS,现在你真的有一些冗余! 就服务器pipe理而言,这对于一个办公室来说太疯狂了吗? 有一个更简单的REALTIME替代(理论上认为DRBD看起来简单)。 我们已经有一台服务器。 所以在我看来,第二台配备DRBD专用驱动器的USED服务器可以很容易地以一些智能购物的价格达到150-250美元左右。 添加第二个路由器,更多的驱动器,更多的网卡(使用),和(2)UPS的,并谈论$ 1,000 +/-。 那相对便宜! 我希望这将主要是在服务器故障期间为我们购买时间。 这些日子,驱动器故障似乎是RAID处理起来更容易的事情。 这是其他硬件故障,如控制器,内存或电源,可能需要停机诊断和解决这个问题。 对于我们来说,冗余服务器意味着使用的硬件变得更加可行,更多的运行时间和更多的灵活性让我能够在我的日程安排允许的情况下解决问题,而不必停止一切来修复服务器。 希望我不会错过这些问题容易search的答案。 我做了一个快速search,没有find我正在寻找的东西。
我有两个在Synology HA模式下运行的Synology服务器(DiskStation DS1817 +),其中包含RAID10中的WD Black 4TB硬盘。 它们通过iSCSI连接到我的集群,主要提供备份存储,文件共享(在单独的文件服务器虚拟机中),以及托pipe几个DEV虚拟机和testing实验室。 问题在于这些盒子是以主动 – 被动模式运行的,因为我只能得到单个盒子的性能(这在现阶段已经不够了),而且故障转移花费了太多的时间(大约2分钟)导致运行在那里的服务死亡。 有没有办法将它们切换到主动 – 主动,所以这两个框被用来加快速度? 我正在考虑的另一种方法是将其转换为RAID0,但显然有点可怕。 此外,我不确定在这种情况下4x1GbEnetworking是否会阻碍RAID0的性能。 任何build议,高度赞赏。
我一直在阅读很多关于高可用性虚拟化的知识,无论是通过Hyper-V还是VMWare。 在这种情况下,基本上高可用性意味着虚拟机由一个物理服务器(节点)集群托pipe,所以如果其中一台物理服务器出现故障,虚拟机仍然可以由其他物理服务器提供服务。 到目前为止,物理集群和虚拟机本身都是高度可用的。 但是,如果提供的服务是SQL Server,MSDTC或其他服务,实际上是由VM镜像和虚拟化操作系统提供的。 所以我想像在虚拟层还有一个没有被说明的失败点。 虚拟机本身可能会发生物理集群无法解释的问题,对吗? 在这种情况下,物理故障转移群集(Hyper-V)或VMWare主机无法进行故障转移,因为问题不在于物理群集中的某个服务器 – 通过物理节点故障转移将无济于事。 这是否需要在物理上创build虚拟故障转移群集,或者这不是必要的? 或者,我想你可以跳过物理聚类,并在虚拟层集群(基于子故障转移集群),因为它应该仍然存在物理故障。 请参阅下面的图像,显示父母(左),基于孩子(右)和组合(中)。 只要你需要去基于父母,还是基于孩子更合适?