Articles of lun

跨2个客户端共享SAN LUN

我有一个ISCSI SAN,用于存储我们集群的映像(2TB映像)。 读完之后,我们可能本应该使用NAS而不是SAN,但回到这一点。 我将需要两台服务器共享SAN上的单个LUN以进行故障切换。 我们在这两个centos 6.5机器上安装了haproxy和nginx。 我们使用keepalived来共享这两台机器之间的虚拟IP,以防万一崩溃。 同样,我们需要在任何一台机器上都可以使用iscsi lun,所以我们可以把图像提供给我们的群集。 有没有一种“简单”的方法来实现这一点?

SAN:如何确定LUN和CSV的数量

我们inheritance了带有SAN存储(HP4500硬件)的Hyper-V环境(2008 R2)。 两个主机和两个SAN用于冗余。 虽然我很了解虚拟机,但我想我的存储知识非常薄弱。 我想了解我们的MSP工程师是如何devise的,为什么。 这是介绍部分,这里是主要部分。 我们在每个SAN上有5.32TB的可用空间,在Hyper-V主机上有四个卷:卷1,卷2,卷3和最近为Exchange服务器创build的Exchange卷。 在惠普pipe理控制台上,我可以看到根据(LUN?)卷的大小为3TB,1.79TB,2TB和1.07TB。 它可能看起来超过规定,现在不是主要问题。 我现在的问题是如何决定创build这些卷,为什么? 为什么不创build一个大卷或很多小卷? 我已经试过研究,并在几篇文章后,尤其是这一个: https : //technet.microsoft.com/en-us/library/ff182320(WS.10).aspx#BKMK_LUNs它是有道理的。 我不想作出任何假设,并发表我的问题,以防万一它可能是错误的,我不想混淆正在寻找类似答案的其他人。 我会试着问。 将存储划分成几个卷是出于性能原因,并防止磁盘太满或被覆盖? 如何决定在哪个卷上存储新的虚拟机 – 我应该在一个卷上创build所有系统VHD,在另一个卷上创build所有数据VHD? 如果是的话,如果很多虚拟机有一个单一的VHD文件,那么如果一个卷将有太多的VHD和大小会增长?

扩展iSCSI LUN(NTFS)

我有一个4TB的iSCSI LUN,可以在Windows 2008中形成NTFS格式。我已经将这个格式化的卷作为一个文件夹分享给了SMB。 当这个卷的容量不够时,我不得不添加更多的iSCSI LUN,但最终用户只能看到我以前共享的文件夹。 因此,当我扩展当前4TB的NTFS卷,并使用更多的iSCSI LUN(例如2个4TB LUN)时,如果其中一个LUN失败或丢失,文件夹中的所有数据都将丢失? 我想象扩展NTFS卷就像RAID 0(条纹)。 如果它是RAID 0,那么当其中一个失败或失踪时,我的所有数据都将丢失。 简而言之,这里有两个问题:1-如果在一个扩展的NTFS卷中缺less一个lns,会发生什么? 2-是否有另一种方法来合并所有的iscsi lun作为一个文件夹,这样用户就不会看到任何额外的文件夹,即使我添加额外的iscsi lun到文件服务器(我没有提到DFS)问候。

Solaris:克隆/重新创build不受ZFS卷支持的iSCSI目标

是否有可能重新创build或克隆不支持ZFS卷的现有iSCSI目标? 我问,因为重新启动一个X4500捶击器,我受到这个bug的影响: http : //wesunsolve.net/bugid/id/6803721同样的错误也在这里, https://defect.opensolaris.org/bz/show_bug。 cgi?id = 7482 ,但我突然擅自查看该页面。 因此,执行“iscsitadm list target -v”时显示的一个iSCSI目标的LUN参数现在都是未知的。 iSCSI目标可以从其Windows Server 2008启动器连接到,但是没有安装任何磁盘。 实际数据存在于后备存储目录(/export/pool1/iscsi/iqn.1900.fakeiqn/lun.0)中。 有关其他信息,此iSCSI目标是以下列方式创build的: 1)zfs创buildpool1 / iscsi 2)iscsitadm修改admin –base-directory / export / pool1 / iscsi 3)iscsitadm创build目标 – 大小1T this.is.a.long.target.name.affected.by.the.bug.above 4)基础目录布局如下(ls -al / export / pool1 / iscsi): drwxr-xr-x 2 root sys 3 Jan 30 10:10 iqn.1900.fakeiqn.target lrwxrwxrwx 1 root sys […]

重新启动ESX / ESXi主机后,LUN将消失

ESXI主机重启后,组中的单个LUN消失了。 主持人和Vcenter都不能看到它。 我有四个虚拟机,现在只显示VCenter未知的LUN。 虽然很奇怪,但是当您尝试从configuration==>存储==>添加数据存储时尝试添加数据存储时,您会看到列表中可用的LUN。 我真的需要安装伦没有格式化,因为我有这四个服务器上。 作为替代能够复制文件将做。 谢谢

LUN设备文件名称混合

以下列表来自Linux RHEL框。 我对以下的不一致感到困惑。 在这里,我们为多path绑定文件中的每个LUN定义了别名: mpath0 36006016071602e0026025fa3eff2e111 mpath1 36006016071602e008cec8699eff2e111 mpath2 36006016071602e00485dffadeff2e111 mpath3 360060160b6502e00e63f011ab359e211 但是在这里我们有设备文件名的WWN和别名。 为什么混合? ll /dev/mpath lrwxrwxrwx 1 root root 8 Sep 25 17:39 36006016071602e0026025fa3eff2e111 -> ../dm-15 lrwxrwxrwx 1 root root 8 Sep 25 17:39 36006016071602e0026025fa3eff2e111p1 -> ../dm-20 lrwxrwxrwx 1 root root 8 Sep 25 17:39 36006016071602e00485dffadeff2e111 -> ../dm-17 lrwxrwxrwx 1 root root 8 Sep […]

在fdisk -l之后提供显示3个磁盘的LUN

所有,我提前感谢以下任何有用的回应: 来自外部SAN的一(1)个800GB LUN被提供给4个RHL服务器(2.6.9-78.0.8 x86_64) 重启之前的初始<fdisk -l>表示没有<不包含有效分区表>的磁盘 重新引导后,<fdisk -l>显示三个(3)磁盘,其中<不包含有效分区表> / dev / sdo / dev / sdac / dev / sdlmmac [其他3个RHL服务器上的磁盘名称稍有不同] 检查/ proc /分区,我看到所有三个上面的磁盘列表,每个800GB 当我在4个月前使用不同的集群集(5个RHL服务器)与另一个800GB的LUN执行上述步骤(1-3)时,步骤#3只显示一个(1)磁盘,其中<不包含有效的分区表> 。 然后,我在第一台RHL服务器上对fdisk进行格式化,在其他4个RHL服务器上确认fdisk已经工作,然后能够连接到我的Oracle ASM,以便为集群中的所有5个实例提供额外的存储空间。 我应该如何处理3个磁盘的显示(上面的步骤#3)? 我应该只是fdisk格式的/ dev / sdlmmac? 为什么会发生? 这4个RHL设置是否有configuration问题,比4个月前与我一起工作的其他5个RHL设置可能导致这个问题? 再次,在此先感谢埃德

Clariion CX300:从RAID组中删除系统磁盘?

我有一个包括我的DPE2每个磁盘的RAID组。 我想从这个RAID组中删除系统磁盘(0-4)。 从我阅读的内容来看,我应该把它们放在自己的RAID组中,并尽可能避免在其上存储用户数据。 摧毁这个RAID组会吹出这些光盘上的数据吗? 这是否意味着我不得不重新安装FLARE?

LUN LUNpath是否会导致剩余LUNpath上的I / O时间增加?

我们使用EMC SAN设备。 从集群到SAN有2条“path”。 今天,我们体验到其中一个LUNpath“死亡”(如在Windows事件日志中报告)。 据推测,多pathLUN可能是一条path。 在这个时候,我们看到SQL Server上的I / O错误,“I / O请求花费超过15秒来完成…”。 在集群中被动节点失败后,问题就消失了。 问题:如果主集群节点不能再通过两条configuration的path之一进行通信 – 这是否意味着LUN的带宽被分割为一半 ? 另外,使用SAN驱动器的作业是否可以读/写(我们的TempDB位于此驱动器上)会导致LUNpath出现“down”?

LVM创build的NFS共享的最佳LUN大小

我可以通过一个SAN访问大约80TB的容量,我想把它设置为2个NFS共享:1个共享70TB,1个共享10TB。 10TB的份额将完全备份到磁带,而70TB的份额将没有备份。 使用LVM我将设置两个逻辑卷,每个这些共享一个。 这两个NFS共享的用法是将文件提供给运行扭矩集群软件的大约20个节点的集群,以及具有Rstudio的几个节点。 我预计任何时候都有大约10到20个用户访问系统。 现在,在设置卷之前,SAN上的容量需要分成LUN。 鉴于上面的情况将是一个可以接受的LUN大小? 我知道,决定LUN大小的一个可能因素是性能与维护性,即较less的LUN具有较低的维护成本,但性能较低。 鉴于此,逻辑LUN大小似乎为2.5或5TB,因为LUN数量不是太高,但是我获得了多个LUN性能的一些优势。 这是一个适当的LUN大小,或者我应该考虑替代? 编辑: 客户端操作系统:Centos 6.6networking:从NFS文件服务器到SAN,以循环方式连接2个10千兆networking连接。