处理Synology上有限数量的iSCSI目标

我有一个简单的KVM虚拟实验室,它使用Synology作为存储后端。 最初,我只是使用简单的存储模型,其中每个目标指向一个guest虚拟机使用的LUN。 但后来我碰到了Synology对10个总目标和10个LUN总数的限制(对于我的相对较低端的型号)。

那么,这是一个合理的方法吗? 我需要有多个服务器使用相同的iSCSI LUN。 这可能吗? 如果是这样,这是一个广泛使用的做法?

如果你想使用带KVM的iSCSI块设备,绕过这个限制,并保持简单,你可以使用LVM2。

如果您不需要跨虚拟机pipe理程序共享逻辑卷,则可以使用vanilla LVM2(不通过cLVM进行集群)来执行此操作。 使用这种方法,您可以为每个pipe理程序提供一个更大的LUN,并通过vgcreate命令或通过libvirt定义池将其join新的“卷组”。 卷组作为每个pipe理程序的弹性存储池,提供逻辑卷,其行为与具有额外function的分区类似,例如可以轻松地移动或resize。

为了节省重复数据删除的工作量,本“ RHEL存储pipe理员指南”详细介绍了如何通过常见的graphics方式和shell通过virsh来完成此操作。

如果你真的需要真正的迁移和真正的医pipe局,单一个Synology单位是不够的。 在你的情况下,它会变成一个单一的失败点。 另外,Synology是存储备份或作为文件服务器的绝佳解决scheme,但对于主要的生产存储来说,这并不太合适。

有很多软件定义的解决scheme可以帮助您为集群构build适当的冗余存储。 例如,你可以带一对pipe理程序主机,填充所需的存储量,从这个列表中使用一些东西:

HPE VSA – 基于Linux的HA存储解决scheme。 需要2个物理节点和1个见证。

StarWind Virtual SAN – 基于Windows的HA存储解决scheme。 需要2个节点。

Unity VSA – 基于Linux的HA存储解决scheme。 需要3个节点。

所有上述解决scheme也有免费版本。

我build议你不要从头开始用KVM,DRBD,cLVM和Pacemaker(或者你喜欢的任何东西)来构buildHA集群,而应该考虑一下Citrix XenServer ,它是免费的,并且具有大部分必要的function,这些function已经预安装并可以使用。