Articles of iscsi

Linux SCSI层不会自动重新映射LUN分配

我有一些iSCSI / FC存储,目前只使用iSCSI。 一般来说,在Linux和Windows下安装LUN都没有问题。 不幸的是,当我为Linux iSCSI启动器添加LUN时,我收到消息中的信息: 警告! 收到此目标上的LUN分配已更改的指示。 Linux SCSI层不会自动重新映射LUN分配 并且新的LUN不会显示在中 fdisk -l 如果我重新启动iscsi守护进程 – 我得到新的LUN,但是与挂载的旧LUN有松散的连接,而且 – 设备字母(dev / sd ..)正在改变。 在Windows上 – 新的LUN可以一次显示,并且可以在不影响以前的情况下挂载。 有没有特别的select 使用iscsiadm (我尝试了像“重新扫描”,但没有成功)?

持久绑定的iSCSI卷在重新启动时不会自动挂载

我有一个使用Microsoft iSCSI Initiator连接到富士通DX80的Windows Server 2003机器。 我已经添加了一个目标,使用双方的CHAP,并奇妙地工作,直到我重新启动。 我已经设置目标是持久的,并正确地绑定了音量,但重新启动后,无法成功安装驱动器。 我在系统日志中看到一些特别感兴趣的事件。 在启动过程的早期,我看到了这一点 事件types:错误 事件来源:dmboot 说明:dmboot:无法启动卷Volume51(M 🙂 后来,我看了几次 事件types:错误 事件来源:iScsiPrt 说明:启动器服务未能及时响应encryption或解密数据的请求。 最后,也许最重要的是,我看到了这一点 事件types:错误事件源:MSiSCSI描述:超时等待iSCSI持久绑定卷。 如果有任何服务或应用程序使用存储在这些卷上的信息,那么它们可能无法启动或可能会报告错误。 掌握了最后一个事件的知识后,我试图调整超时时间。 我将VolumePostDiscoveryTimer修改为720,将VolumePostDiscoveryTimer修改为VolumePostDiscoveryTimer除了扩展已经非常慢的启动过程之外,这些对结果没有影响。 我已经阅读了这篇文章, KB870964 ,但它不适用于我的情况,因为我甚至没有到达可以期待networking共享映射的地步。 有任何想法吗? 编辑:我已经尝试过, 没有任何CHAP身份validation,它仍然无法正常工作。

md3200i上的多path负载均衡

我正在设置一个具有iSCSI MD3200i SAN的服务器集群以用于共享存储。 一切正常,但我有一个小细节,我似乎无法工作。 多path似乎只想通过到SAN的iSCSI连接进行故障切换。 我想得到这个工作在负载均衡模式,以便它使用每个path,而不是一个或另一个。 一个人在这里总是performance为幽灵,这意味着它没有被使用。 [root@kvm-01]~# multipath -ll mpath2 (36842b2b0006b9d87000004383bf558d9) dm-5 DELL,MD32xxi [size=2.2T][features=3 queue_if_no_path pg_init_retries 50][hwhandler=1 rdac][rw] \_ round-robin 0 [prio=100][active] \_ 8:0:0:0 sdb 8:16 [active][ready] \_ 7:0:0:0 sdc 8:32 [active][ghost] 我的多pathconf: [root@kvm-01]~# egrep -v '(#|^$)' /etc/multipath.conf blacklist { device { vendor "*" product "Universal Xport" } device { vendor "*" product "MD3000" […]

是否有可能创build一个具有两个DRBD节点的多pathiSCSI目标?

我可以放在一起使用两个linux服务器,并使用(或多或less)新的DRBD 双主function获得在两个节点上并发读/写访问的共享块设备。 然后,我可以从每个节点导出iSCSI目标 ,并使用这两个iSCSI多path设备吗? 例如。 来模拟双控制器iSCSI存储arrays 我知道我可以通过iSCSI在两个节点上工作,但是我不知道多path事物是否需要从两个目标获得任何知识,或者只要iSCSI是完全独立的,没有共享状态。 (注意,我不打算在生产中使用这样的设置,它只是替代我们不拥有的真正的双控制器iSCSIarrays的testing平台,我将连接一个服务器到两个目标,并testing通过断开两个链路之一进行多path)

从XenServer 6.2池连接到Dell MD3200i失败

这个问题也在Citrix论坛上提出http://forums.citrix.com/thread.jspa?threadID=332289 我有一个MD3200i,目前正在与我的Xen5.6池正常工作,但我无法连接到新的6.2池工作。 我以前有一个6.0升级的问题(这就是为什么旧池仍然在5.6),但回滚,而不是修复它,因为它当时并不紧急。 这个安装是在新机器上 – 我先试了6.1(也有同样的问题),然后在安装后的第二天发布了6.2,所以我切换到了。 在这一点上,我还没有安装戴尔资源DVD上的任何东西 – 我找不到任何应该说的东西,而且我所读到的一切都表明不应该有必要。 我可以从池中的两台服务器ping所有8个IP地址, iscsiadm -m discovery工作正常,我可以login到节点和iscsiadm报告活动正确的会话。 我已经将所需的部分添加到了multipath.conf,但multipath -ll报告在引导后DM multipath kernel driver not loaded立即DM multipath kernel driver not loaded 。 以下是启动后立即进行的testing会话的日志。 root@xen3 ~]# iscsiadm -m node –loginall=all Logging in to [iface: default, target: iqn.1984-05.com.dell:powervault.md3200i.6782bcb0006bd850000000004ed88b91, portal: 192.168.130.101,3260] Logging in to [iface: default, target: iqn.1984-05.com.dell:powervault.md3200i.6782bcb0006bd850000000004ed88b91, portal: 192.168.131.101,3260] Logging in to [iface: […]

无盘XenServer 6.2

我有点怀疑,因为我找不到相关的最新信息。 我想启动无盘XenServer版本6.2(服务器…不是安装程序)。 我有一个支持iSCSI的Intel Pro 1000 ET网卡。 我可以使用以下信息将XenServer 6.2从CDROM安装到iSCSI设备上: https://www.krystalmods.com/index.php?title=xenserver-6-supports-iscsi-boot-undocumented-feature&more=1&c=1&tb=1&pb=1 重启后,系统将开始启动,然后最终挂起。 看来iSCSI接口被重命名,导致它退出(这是我的理解)。 我的怀疑来自希望这样做的人数,但自2012年以来没有(很容易find)该项目的更新。我的备用论坛的post从未被批准。 XenServer 6.2应该是开源的。 是否有人更新了有关如何使用Intel iSCSI启用的以太网接口启动XenServer Diskless的信息?

在vSphere中使用光纤通道和iSCSI实现高可用性

我很难理解vSphere中的高可用性共享存储。 我有以下工具包: 1个Mac mini(ESXi 5.5 – vSphere的一部分) 1个白盒PC(ESXi 5.5 – 使用光纤HBA的vSphere的一部分) 1台HP ProLiant微服务器(Nexentastor) 我希望能够在两台ESXi主机之间使用vMotion和HA。 但是,我希望在Mac mini上使用白色的白色盒式PC和iSCSI上的光纤通道(如果可以的话,我会很高兴地将光纤HBA添加到Mac mini上 – 该死的mac mini)。 目前我能够在iSCSI和光纤通道上看到来自Nexentastor的LUN,并能够创buildVMFS5数据存储。 我遇到的问题是在光纤通道和iSCSI上安装相同的数据存储(在相同的LUN上显示),这样两个ESXi主机都可以利用vMotion和HA。 这可能是不可能的。 如果有人有任何其他的想法,请让我知道。 我已经想过不得不放弃光纤通道,并完全采用iSCSI – 这不是理想的,因为我不得不购买更多的NIC或iSCSI HBA。 边注: 对于任何尝试这种configuration的人来说,使用Nexentastor的写入速度令人震惊。 通过在RAID卷上启用“同步”并禁用单独Zvols上的“同步”,写入速度将在整个屋顶中实现。 不知道这可能会有什么影响,但它的作品。 我省去了详细的networking信息,因为没有人愿意在这里阅读它的stream量负载。 ;)我们可以假设在这种情况下networking是好的。 谢谢你的帮助。

iSCSI步骤介于1Gb / s和10Gb / s之间

所以,我正在构build一个基于freeNAS的iSCSI系统。 这是连接到几个(约20个)ESXi 5.5盒。 这些ESXi机箱只有启动驱动器和几Gb的本地存储器(类似30gb SSD)。 我正在升级networking,我发现iSCSI在1Gb / s和10Gb / s之间几乎没有select。 关于分配交换机已经有了一个10GB / s的骨干网,但是这个速度还不够快。 我已经研究了光纤通道,但是直到下一个版本,它似乎不被freeNAS支持。 有关1Gb / s和10Gb / s之间的iSCSI介质的build议?

iSCSI:lsscsi列出设备,但fdisk不是

如何让freebsd显示启动器成为一个zpool可安装的目标? 在全新安装的FreeBSD 10.2(hostname bohr )上,我制作了一个名为tank的zpool,其中一个vdev是一个镜像中的两个磁盘; 然后我用zfs来制作一个4GB的卷( images )。 我为组和目标(用于testing)设置了一个没有身份validation的iSCSI LUN指向images 。 Linux,FreeBSD和OS X启动器可以发现目标并进行连接,但是没有一个发现可以格式化或挂载的卷。 root@bohr:/tank/volumes # zfs list NAME USED AVAIL REFER MOUNTPOINT tank 4.13G 895G 96K /tank tank/volumes 4.13G 895G 100K /tank/volumes tank/volumes/images 4.13G 899G 64K – root@bohr:/tank/volumes # zpool status pool: tank state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM tank […]

主动/主动MultiPathIO到两台HP d2700s?

我们的XenServer 6.5主机通过基于Linux的HP DL360 G6“桥接器”通过以太网连接到共享的SAS存储器。 这个单一的 StorageServer将以太网连接到SAS,并通过iSCSI守护进程共享。 3x HP DL380 G6 <—>以太网< – >带HP p411 SAS RAID卡的HP DL 360 G6 <— mini SAS电缆—>两个HP d2700 SAS机箱< – >双端口SAS驱动器。 我们可以通过p411(不排除其他卡)来添加第二台DL 360以获取从XEN主机到iSCSI / SAS双端口驱动器的主动/主动path吗? 不仅要增加冗余,还要提高性能。 Citrix XenServer是否真的足够聪明,能够限制哪些主机与LVM进行通信,从而使相同的LVM不会被两个不同的通道访问? 即使XEN很聪明,当硬盘坏了的时候,两台不同服务器的RAID卡如何协调arrays的重build? XenServer 6.5基于RHEL / CentOS 5. Device Mapper兼容性列在/usr/share/doc/device-mapper-multipath-0.XY/multipath.conf.defaults中。 在CentOS6.7中这个文件提到了d2700的兄弟,如P2000 G3和MSA2012i等。 multipath.conf.defaults不会列出d2700和d2600。