我正在试图回到unix游戏中,我们已经开始了一些存储项目。 我们很乐意使用joyents smartos(基于illumos)。 使用它是一个真正的喜悦(设置VMS等),但我不能让iscsi工作。 我很想简单地共享一个zfs设备作为iscsi连接点,但不能得到它的工作。 我也不能让smb或nfs工作,但这些属性至less存在,我相信他们会工作。 我可以find的文件似乎有点老式的solaris,新的solaris,照片的东西等一些地方,这是可以理解的,因为它是这样一个新的版本,虽然。 有人有指点吗? 我已经尝试过了 zfs set shareiscsi=on zones/name 导致“未知财产”。 而且它还没有在zfs属性中列出。 我也试过了 sbdadm create-lu /dev/zvol/rdsk/zones/ 但是这会导致 sbdadm: unknown error itadm也不可用,不包含iscsi的服务列在“svcs”中。 任何帮助是极大的赞赏。
我已经使用Windows Server 2008 R2设置了3个节点的群集。 我需要连接到这些节点很多伦(每个节点上18个LUN;不是我的决定…… :()。经过与iSCSI Initiatorconfiguration挖了一会儿,我发现我达到了iSCSI Initiator的256个连接限制,所以我决定做一个“微调”… 每个节点都有4个专用于iSCSI连接的NIC。 使用HP MPIO DSM,每个LUN连接将生成16个连接(4个NIC * 4个SAN节点) 所以我决定使用4个网卡来连接“要求最高”的LUN,每个使用率较低的LUN只有2个网卡。 这样做我可以保持在256连接(实际上我达到246连接)。 当我需要重新启动一台服务器时,问题就出现了。 重新启动iSCSIconfiguration似乎部分丢失:即使是“要求不高”的LUN连接到4 NIC的服务器,所以我再次超过256个连接… 任何人都曾经做过这样的事情,可以build议我吗? (我想每个LUN的使用less于4个NIC,但我可以这样做) 谢谢你的帮助
我们在池中的三个刀片上使用XenServer 6.1 Advanced。 我正在使用Storage XenMotion将存储从旧SAN迁移到新SAN。 到现在为止还挺好! 但是,我发现,在没有可用空间的LUN上,Storage Xenmotion无法创build快照,因此传输失败。 令我奇怪的是,新的SAN正在报告空间,就好像VD已经被移动了一样。 以下是新SAN上现有虚拟磁盘的一个镜头: 不过,以下是新SAN上存储库的“常规”选项卡的一个镜头: 此XenServer池是唯一访问此存储库的东西。 我认为最多可以使用〜150 GB。 也许多一点,但肯定不会那么多。 我目前的假设是,它与存储失败的XenMotion有关。 问题:是否有XenServer工具(命令行或XenCenter内)可以帮助我了解额外存储的位置并回收? 与往常一样,我更愿意提供更多信息来帮助缩小问题的范围! 提前致谢!
我们的ESXi主机在iscsi_vmk loaded successfully时一直很慢启动 – 在这里坐了将近5分钟。 在所有完整的服务器重新启动需要将近12分钟。 我们每个主机有9个iSCSI目标(5个具有冗余接口的SAN)configuration为dynamic discovery目标。 有没有人经历过这个? 可以用static discovery模式修复吗? 是否有任何debugging步骤可以帮助诊断? (我们所有的目标都可以在启动时访问,所以我假设主机不被卡住,重试连接到目标)
我有两个不同的 Hyper-V 2012 R2环境,它们使用iSCSI连接到他们的虚拟机存储。 虽然环境是不同的(一个是10 GB,而另一个是混合1 GB / 10 GB,一个是在RAID 6中使用SSDarrays,而另一个是在两个arrays中分布的RAID 10),我看到的奇怪行为是一样。 底线是,当我直接在主机上运行磁盘I / Otesting时,我得到了平均IOPS的特定值。 但是,当我在虚拟机内对“本地”磁盘(存储在CSV中的vhdx文件)运行相同的testing时,IOPS值会大大降低 。 从这个angular度来看,这里是我正在testing的环境 主办 Windows 2012 R2 Datacenter 512 GB 48个逻辑处理器 用于iSCSIstream量的10 GB光纤 一(1)台虚拟机正在运行 存储 EqualLogic PS6210S 24个800GB SSD的RAID 6 一个(1)1TB容量包含一个(1)vm 10 GB光纤 主机和arrays连接到专用networking交换机 虚拟机 Windows 2012 R2 Datcenter 127 GBdynamic磁盘 dynamicRAM I / Otesting FIO 2.2.10 – testing软件 70/30 […]
我目前有一个在3年前的Windows 2003 Server上运行的中型(4GB)SQL Server 2005数据库。 [至强2.8-2核心,2GB,2个73GB SCSI 10k – RAID 1]。 此数据库后端结束在同一台服务器上运行的ASP.NET OLTP应用程序。 该应用程序还支持来自同一个数据库的报告(没有数据仓库,只是一些关键的非规范化)。 当前服务器的CPU利用率不值得一提,内存利用率是“考虑升级的时候”高了。 磁盘性能/利用率是…我不确定…但应用程序和查询性能仍然足够快。 我们计划在明年内升级硬件,以应对一些预期的增长。 我想迁移到Windows 2008 R2的Hyper-V更灵活,等等… 问题:iSCSI SAN是否为在VM中运行SQL 2008提供了足够的性能? 我没有在google上find很好的指导。 我知道configuration是支持的(虽然NAS不是),但似乎共识是“可能,但光纤/ HBA或DAS更好”。 我应该在我现有的系统上评估哪些指标来帮助指导这一决定? 有没有我应该找的门槛,这将表明iSCSI不会削减? 任何指导或信息非常感谢! 更新:另外,一些额外的谷歌search出现了一些有用的信息和链接:
我想用iSCSI来build立一个存储农场。 我有2个集群节点机,1个安装了8TB的iscsi目标机为RAID 10,容量现在是8TB,但我将来会升级容量。 比方说,我安装了集群作为文件服务器,并将这些服务器连接到iscsi目标,然后我将8TB容量作为唯一文件夹共享给Windows用户。 用户现在只能看到一个容量为8TB的文件夹。 但是如果我想添加另外的8TB来扩展主容量,用户不能看到这个新的8TB的第二个文件夹。 用户必须像以前一样只能看到一个文件夹,但这次这个文件夹的容量扩展到了16TB。 等等,如果我添加另一个8TB,用户只能处理一个文件夹。 为此,我了解到ZFS可以扩展其大小而不会出现问题。 因此,如果我在iSCSI LUN上使用ZFS作为文件系统,群集机器如何看到ZFS。 因为群集机器有Windows 2008.有没有另一种方法来扩大共享文件夹的大小没有问题? ntfs是否支持它?
我正在将几个hyper-v虚拟机从一个不足电源的主机移动到一个具有iSCSIarrays的新主机上进行存储。 iSCSI卷的最佳configuration是什么使Hyper-V获得最佳性能? 我应该做一个大的LUN,然后把所有的vhds放在这个LUN上,或者多个较小的LUN在hyper-v上工作得更好? 主机服务器是戴尔r710,双网卡专用于安装Dell MPIO驱动程序的iSCSI。 MD3000i通过与r710相同的物理交换机使用所有iSSCI端口。 大多数服务器是自包含的机器,大部分机器的磁盘I / O不重。 我有三个开发服务器作为构build目标机器,它具有比其他serevrs更高的磁盘I / O,但构build不会一直运行。
我们正在使用DPM 2010进行交换备份, 备份磁盘是来自多个NAS盒的iSCSI连接驱动器。 我们希望将iqn.2009-07.com.example.example:RAID.iscsi4.vg0.iscsi05到iqn.2012-3.com.example.example:RAID.iscsi4.vg0.iscsi05 DPM 2010需要自己的磁盘并处理卷创build,因此我们不能只在磁盘pipe理中创build镜像卷。 DPM本身似乎没有任何能力在其存储池中镜像磁盘。 这些磁盘是使用Windows-server-2008 iSCSI Initiator启动的,两个iSCSI驱动器位于不同的NAS盒子上(其中一个即将停机维护) 有关如何将卷从一个驱动器镜像到另一个驱动器的任何提示?
有时当你连接到一个多path的iSCSI目标时,你将只能访问它的一些门户。 当发起者直接连接到目标的以太网端口时,这是常见的,而不是通过交换机。 [我这个基础架构的实际例子是一个带有4个直接连接的服务器的Dell MD3200i / MD3220i SAN] 当您执行iSCSI发现时,发起者将获得所有门户的列表,甚至是那些实际上并没有连接到并且不能说话的门户。 使用双控制器,每个控制器有四个端口,您将看到如下所示的内容: # iscsiadm –mode discovery –type sendtargets –portal 192.168.130.101 192.168.130.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.131.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.132.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.133.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.130.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.131.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.132.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11C0123456789012345678901234 192.168.133.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 …但是主机被连接到第一个(192.168.130.101)和第六个(192.168.131.102)端口,所以它将永远无法与其他六个端口通话。 根据iSCSI目标的典型文档,最终所有入口由发起者“知道”,但后者只会对感兴趣的(在上面的例子中是两个)实际login。 应该从发起者的configuration中删除“不可达”的吗? 即使没有实际login,他们是否可以提出“已知”的问题?