我们公司最近为一个项目购买了带有24x 300GB SAS 10K磁盘的戴尔MD3220i。 令我非常震惊的是,这个pipe理工具似乎并没有允许2×4端口的任何以太网绑定,甚至认为这是一个要求。 你是怎么克服这个的? 多path? 使用SAS 6GBit端口? 存储虚拟化? 我真的很想使用绑定和冗余没有操作系统处理这个…… 🙁 任何提示?
据我所知,可以在大约15秒内升级Dell Equallogic服务器上的固件,并且可以在连接ESXi主机和虚拟机运行时完成,但需要增加iSCSI超时值以避免虚拟机出错。 我已经search了VMWare和戴尔的网站,但找不到最佳实践问题或知识库文章,详细介绍了如何为ESXi 5.0执行操作以增加超时并执行“实时”固件升级。 是每个主机/ iSCSI发起者还是每个目标,你如何增加它,什么是合理的价值?
我正在寻找一个操作系统,安装在一个服务器,其中有4个1TB磁盘。 Id喜欢把这些磁盘作为一个RAID-5arrays,并通过iSCSI共享VMWare ESXi 5.我不知道这是否存在… 我曾试过/看过: – Freenas,旧版本不工作与ESXi,新版本不运行没有ZFS的RAID-5。 – 我认为,Openfiler,我的网卡的一些内核问题 – NexentaSTOR,再次RAID-Z而不是RAID-5 – DSS V6 Lite,看起来不错,但Lite有2TB的限制 有什么build议么? 或者我应该自己做一个(例如Centos + mdadm + iSCSI)? 编辑:所以我可能会使用RAID-Z …(感谢3dinfluence)
在某些工作负载下,读取SAN上的性能很慢。 当我们把这个与一些本地存储进行比较时,我们发现本地存储执行的速度是一样快的。 SAN性能良好,队列深度高,队列深度低。 但是,本地存储性能良好,队列深度较低。 我想知道发生这种情况的原因,并找出在这种情况下具体限制因素是什么。 MD3200i iSCSI SAN(15,000美元) 6 x 600GB 15k SAS RAID5 6 x 2TB 7.2k NLS RAID5 XCOPY / j基准:(慢) 15karrays – 71MB / s(队列深度1) 7.2k数组 – 71MB / s(队列深度1) Robycopy / MT:32基准:(快速) 15k数组 – 171MB / s(队列深度〜12) 7.2k数组 – 128MB / s(队列深度〜12), 在SAN缓慢的工作负载下,本地控制器上的读取性能很快。 , HighPoint 2230 RAID控制器($ 600) 4 x 1TB […]
我们正在将我们的(直接连接的)存储系统迁移到基于iSCSI的整合存储,我们提出了一个有趣的问题:我们应该在哪里放置LVM处理? 让我解释。 我们正在configuration一个基于三级方法的存储系统,即存储,文件pipe理器,应用服务器。 这基本上将存储设备与文件系统分开。 该存储基于(除其他外)运行CentOS的DELL系统,为归档器提供iSCSI设备。 文件pipe理器通过向应用程序服务器提供NFS / CIFS / etc文件系统来“消费”iSCSI存储。 存储设备还可以为虚拟主机(KVM)提供iSCSI设备,直接以虚拟机的forms将其用于其虚拟机。 这是问题吗? 我们在哪里放置LVM处理? 换句话说,我们应该划分(即在存储服务器上还是在Filer / VMhosts上创build带有LVM的PP / VG / LV? 我们最初的方法是尽可能多地将存储(LVM和文件系统)的处理/转换推迟到上层主机(文件pipe理器/应用程序服务器),因为这些存储服务器中只有less数存储服务器。 这样我们更有效地分配处理。 我们是对的吗? 我们是否做错了什么? 谢谢。
我有一个600GB的设备设置,并使用免费版本的Starwind通过iSCSI连接。 我发现我需要使用300 GB的主机驱动器用于其他目的,并希望将600GB图像的大小调整为300GB。 NTFS文件系统上只有200GB的数据,而且没有碎片。 有没有办法做到这一点? 如果我能避免将所有数据复制到USB硬盘来重新创build驱动器,那将是非常好的。 问候,
我从一台旧的Fedora(Core6)服务器上使用了一个客户端的iSCSI目标。 我configuration它,并格式化为ext3(错误,现在我知道),我一直在使用它一段时间。 现在我需要从其他机器访问这个卷。 据我所读,我不能同时从两台机器安全地做(这是我第一次尝试)。 所以我已经从原始服务器上卸载了它,并试图将它挂载到新的服务器上(我首先用Ubuntu 10 LTS做了这个工作,但是当我无法做到的时候,我用另一个Fedora安装了相同的configuration)没有成功。 问题是:我可以看到NAS上的所有目标,但是当我使用“fdisk -l”来查看所有设备并知道哪个安装时,我将所有目标视为SFS文件系统。 从原始的服务器上,我看到所有的SFS(毕竟他们属于我的客户,不知道他在做什么)除了我pipe理的那个,我把它看作是“Linux”。 这里是在服务器(Fedora)中可以看到的分区表。 西class牙语,对不起。 我希望可以理解。 我之间的意见[…] [开始真正的本地驱动器..] Disco / dev / sda:500.1 GB,500107862016字节 255个磁头,63个扇区/磁道,60801个磁道 单位= 16065 * 512 = 8225280字节的cilindros 扇区大小(逻辑/物理):512字节/ 512字节 I / O大小(最小/最佳):512字节/ 512字节 磁盘标识符:0x00000080 Disposit。 Inicio Comienzo Fin Bloques Id Sistema / dev / sda1 1 26 204800 83 Linux / dev / sda2 […]
对于我来说,以前从来没有使用过的新SAN:它是一个IBM DS3512双控制器,每个控制器带有一个四路1GbE NIC,客户需要购买这些控制器并需要帮助。 主机(x2)有8个pNIC,而我通常为每个主机预留2个pNIC(其中2个用于VM,2个用于pipe理,2个用于vMotion,跨适配器交错),SAN上的这些额外端口让我想知道存储I /如果每个主机有两个额外的NIC,或者如果vmkernel / initiator的限制会阻止额外的多path实现的话,O将会得到显着的改善。 我没有看到每个主机有4个pNIC iSCSI实现, 2是我在网上阅读/看到的事实标准。 我可能也可能会做一些I / Otesting,但是只是想知道是否有人在很久以前(即在10GbE之前)发现了一个让每个主机设置4个NIC的iSCSI有点毫无意义的“墙”。 只是为了澄清:我不是在寻找一个怎么样的,而是一个解释(链接到论文,VMWare的build议,基准等)为什么2-NICconfiguration是规范与4-NIC iSCSIconfiguration。 即存储供应商限制,VMKernel /启动器限制等。
Oracle Linux 6.3 iscsi multipath显示了具有现有文件系统的LUN,但未显示尚未分区的原始块设备。 当我运行多path时,它会显示一个先前已经被多path格式化的LUN。 Oracleasm甚至发现它并将其添加到其磁盘。 但是我创build了新的LUN,因为它们在同一个启动器上,所以它们不会显示出来。 fdisk -l只显示一个工作的驱动器。 是否有一些iscsiadm命令或者显示系统知道的所有块级别的设备,这可能会帮助我解决新的LUN问题? 我实际上已经得到了这个工作一次,但失去了使我的硬盘fdisk和创build一个分区的关键因素。
我在FreeNAS 8.0.4中使用ZFS,并使用iSCSI为Vmware ESXi 5.0提供LUN。 我发布在http://forums.freenas.org/showthread.php?10990-Memory-utilization-and-performance-problem/page4 ,但我相信这里的人可能在ZFS上有更多的专业知识。 FreeNAS没有iSCSI取消映射。 我已经在ZFS iSCSI之间创build/移动/删除虚拟机。 一段时间后,zpool list报告使用了95%的容量。 但是,Vmware显示VMFS只能使用50%的容量。 AFAIK在创build虚拟机时,zvol分配了磁盘空间。 但是,当我们移动/删除虚拟机时,zvol没有更新/不知道更新空闲容量。 [root@data1] ~# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT data1 2.25T 2.07T 185G 95% ONLINE /mnt 现在,我相信由于在zpool list中报告错误的空闲容量,性能受到很大影响。 我应该怎么做,让ZFS知道真正的自由能力。 万分感谢。 zpool状态-v pool: data1 state: ONLINE scrub: scrub stopped after 10h31m with 0 errors on Wed Feb 6 13:32:53 2013 […]