Articles of iscsi

如何使dmsetup更改永久?

完整的案例如下: 我从一个SAN盒附加一个LUN(iscsiconfiguration已经正确完成) 一旦我重新启动open-iscsi守护进程,LUN就会被360060e80104dac0004f349c800000001 ,它的名字出现在/dev/mapper下面,就像下面的string: 360060e80104dac0004f349c800000001 现在我不想使用这个字母数字,我需要一个体面的助记符。 所以,我使用dmsetup命令如下: # dmsetup rename 360060e80104dac0004f349c800000001 datastore 并在/ dev / mapper下面出现一个到dm设备的datastore链接。 问题解决了,直到下次重启。 datastore助记符已经不存在,并且上面的字母数字再次出现在/ dev / mapper下。 我如何使这个变化永久?

将iSCSI目标镜像到较慢的驱动器,asynchronousRAID或块级复制?

我打算在NAS上设置testingiSCSI导出,KVM虚拟化主机将使用它来存储所有客户卷和数据。 我的NAS盒子是一个自build的CentOS。 将由iSCSI从NAS导出的设备将成为SSD。 但我想尝试find一种方法将这个卷复制到NAS上较慢/较便宜的旧磁盘上。 我可以在SSD和较慢的备份驱动器之间使用RAID 1,但是我的理解是arrays的总速度将会由于较慢的驱动器而降低。 有什么方法可以将SSD的某些块级别的完整/增量复制执行到较慢的硬盘上? 某种asynchronousRAID 1或复制会很好,所以只要较慢的驱动器可用,更改的块就会排队并写入较慢的驱动器。 在这种情况下,SSD上的数据不会发生太大的变化,并且在24小时内总是会有一些点能够赶上较慢的速度。 我想避免在每个guest虚拟机中configuration备份。 将所有这一切都在存储箱中的块级别上进行,将是一个优雅的解决scheme,并允许我只更改iSCSI设置,以便在SSD出现故障的情况下导出备份卷。 我已经看过LVM快照,但感觉就像是需要在KVM虚拟主机上configuration的东西,我需要以某种方式将快照存储在不同的设备上。 任何人都知道可以做到这一点,这是在我的小testing环境(即:开源)的预算内? 我猜这个types的大多数解决scheme都是高成本的SAN供应商的保留。 编辑:好的只是在看DRBD。 asynchronous镜像似乎是理想的,但在同一台机器上的存储设备之间是可能的吗? 编辑2:这是一个家庭实验室testing,而不是生产推出。 我基本上想要使用iSCSI / NFS尝试远程虚拟机存储。 如果有机会在这里添加某种设备复制技术,那么我也可以放弃。 我不打算购买额外的SSD和RAID 1,因为这对我的实验是毫无意义的…我广泛使用了RAID 1,我的结论是,它的工作原理。 完美。 我正在寻找是否有另一个我不知道的技术,我可以摆弄和学习。

NAS上的iscsi并发访问/ iscsi卷共享访问

我有一个带有Raid-5(5.3TB可用)的7-bay NAS盒子,带有netgear千兆以太网交换机来连接主机(3个windows7机器规格:i7 / 16GB RAM / 1TB HDD /千兆以太网NIC)。 (所有端点都configuration了巨型帧支持9014B)。 NAS BOX还有2个独立的1G以太网端口(支持LINK AGGREGATION / LOAD BALANCE / FAIL-OVER等)以及一个pci插槽,可以根据需要使用10G以太网卡。 并在我的nas机箱上configuration单个SCSI卷,并使用可用的最大空间。 现在我的要求是,我希望从每台机器(编辑机器ADOBE CS5)以最高吞吐量同时访问单个scsi卷 。 怎么可能? 使用任何第三方联盟,如metaSAN iSCSI,DataPlow? 或者像FreeNas这样的专用开源存储系统,还是一个开放的填充程序? 或者任何其他解决scheme来使用它.. 非常感谢所有提出/帮助我的人。

在不使用故障转移pipe理器的情况下在DFS节点之间共享提供故障转移

我目前正在咨询一家小型工程公司,他们一直在使用单台服务器满足他们所有的域需求,而且当老化的硬件出现故障时,他们的pipe理层已经厌倦了无法从服务器访问networking共享 我购买了两台新的HP ProLiant服务器,用于运行Server 2008 R2 Standard的文件服务,并使用FreeNAS将其旧硬件修复为2个SAN盒。 最初在试用一个解决scheme时,我运行了一个DFS命名空间,两台服务器都作为节点。 主服务器通过iSCSI连接到SAN,然后复制服务将文件复制到辅助服务器(到本地驱动器)。 显然,由于脑裂等问题,不可能(或不推荐)将第二台服务器连接到与主服务器相同的iSCSI卷上。如果主服务器将数据复制到主服务器上,似乎毫无意义地使用SAN辅助服务器本地磁盘,我不能共享iSCSI目标在服务器之间共享数据。 我想通过NAS协议将两台服务器连接到文件级别的FreeNAS框,并且在服务器上configurationDFS,以便在主服务器不可用的情况下只使用辅助服务器。 而不是服务器将驱动器视为本地磁盘(正如他们使用iSCSI),我打算将它们映射为networking驱动器。 在文件级别执行此操作似乎可以缓解在两台服务器之间共享iSCSI目标的问题。 我对SAN / NAS设备和FreeNAS并不陌生,但在这样的部署中使用它对我来说是新鲜事物,所以我不能完全确定这是否会起作用,或者如何执行等等。 这是正确的方式去做这个? 我在网上find的所有这些指南都可以在虚拟机上find,并且有一些故障转移pipe理器,所以我没有太多的信心去遵循那些没有故障转移pipe理的想法。 谢谢!

带有Broadcom BCM5709的iSCSI存储在XenServer 6.2中卸载

我正在从ESXi迁移到XenServer。 但是我们无法通过XenServer 6.2中的硬件HBA添加iSCSI存储。 我尝试通过modprobe手动加载bnx2i和cnic模块,但是它没有任何效果,并且LUN没有出现在New SR选项中。 看来我需要一个名为bnx2id的守护进程; 但我无法自己find它。 期待任何帮助,

在Windows Server 2012中的iscsi驱动器上创build共享

我是全新的服务器pipe理,但我不相信我试图做任何异国情调 我有一个Windows Server 2012(标准)和一个drobo 800i 我的目标是在我已经在drobo上设置的iscsi目标上设置公司份额 到目前为止我有: 初始化iscsi并连接 使iscsi磁盘读/写(默认启动为只读) 格式化并安装它(作为驱动器E 🙂 从服务器本地桌面,我可以看到并写入文件到E:\驱动器 在共享向导中,我不认为它是一个音量选项 当我查看卷窗口我看到(e:drobo固定16tb 16tb) 我对一切都陌生,但我会认为,因为它是一个安装的驱动器,我应该能够共享一个文件夹,但它似乎并不是那么简单 build议?

iSCSI上的Windows 8与LIO目标:精简configuration

我已经在iSCSI目标上安装了Windows 8.1。 该目标由Linux LIO提供,并由一个稀疏文件提供支持。 我创build这种安装的原因之一是自动精简configuration。 换句话说,当我在Windows上释放磁盘空间时,LIO应该在文件中打洞,这样Linux服务器上的空闲存储空间也是如此。 我已经检查了内核的源代码,SCSI UNMAP命令真的支持文件备份的目标。 另一方面,在Windows上删除文件并不会降低Linux上支持文件占用的空间(用du检查)。 实际上,备份文件有时会增长得更多。 谷歌上的一些消息人士说,Win8应该支持iSCSI上的UNMAP / DISCARD,但即使在Wireshark中,当文件被删除时,我也只能看到普通的读写命令。 任何方式来解决或排除故障?

理想的iSCSI设置

我们正在经历缓慢,我使用SAN相当新,所以我想要一些帮助。 首先,我不认为这将完全解决我们的问题,但现在我想专注于我们的iSCSI连接。 我们有3台PowerEdge R710服务器和2台PowerVault MD3220is。 它们由2个PowerConnect Gb(130.x和131.x上的一个)交换机连接,每个交换机都有一个备用NIC。 所有3个ESXi主机几乎都具有相同的设置: vSwitch1(绑定到NIC1) vmk1 IP:192.168.130.1 vSwitch2(绑定到NIC2) vmk2 IP:192.168.131.1 每个PowerVault有2个控制器,4个NIC共8个NIC。 他们几乎完全相同的configuration如下: 控制器0/1:192.168.130.101 控制器0/2:192.168.131.101 控制器0/3:192.168.132.101未使用 控制器0/4:192.168.133.101未使用 控制器1/1:192.168.130.102 控制器1/1:192.168.131.102 控制器1/1:192.168.132.102未使用 控制器1/1:192.168.133.102未使用 这是理想的configuration吗? 如果我们把所有东西放在同一个networking上,好像我们可以获得更多的吞吐量: vSwitch1(绑定到NIC1) vmk1 IP:192.168.130.1 vmk2 IP:192.168.130.2 vmk3 IP:192.168.130.3(添加未使用的网卡) 对于PowerVault: 控制器0/1:192.168.130.101 控制器0/2:192.168.130.102 控制器0/3:192.168.130.103(添加未使用的NIC) 控制器0/4:192.168.130.104(添加未使用的NIC) 控制器1/1:192.168.130.105 控制器1/1:192.168.130.106 控制器1/1:192.168.130.107(添加未使用的NIC) 控制器1/1:192.168.130.108(添加未使用的NIC) 我想把switch1上的其他端口都放在switch2上。 会提供足够的冗余? 它会加快速度吗? 有没有更好的办法?

最近停电后,我的XenServer iscsiconfiguration有什么问题?

由于雷雨天气,我们刚刚经历了停电事故。 停机时间足以重启服务器和交换机。 我们有2个XenServer虚拟机pipe理程序在同一个池中运行。 起初,他们俩看起来都很好,正常运转。 它们都使用相同的交换机连接到Equallogic SAN。 然后我意识到其中的一个是经常在/ var / log中发送iscsi错误。 消息 Jul 20 23:27:29 hkixen01 kernel: [ 1266.132897] connection1:0: detected conn error (1020) Jul 20 23:27:30 hkixen01 iscsid: Kernel reported iSCSI connection 1:0 error (1020) state (3) Jul 20 23:27:32 hkixen01 kernel: [ 1269.232077] connection1:0: detected conn error (1020) Jul 20 23:27:33 hkixen01 iscsid: Login […]

VMWare Workstation-10.01上的RedHAt Cluster中的永久磁盘名称

我正在尝试实现2节点REDHAT HA群集。 以下是我的环境。 VMWare WorkStation 10.01 Node-1 >> CentOS-6.3 x86_64 Node-2 >> CentOS-6.3 x86_64 Node-3 >> CentOS-6.3 x86_64 [Luci] Openfileresa-2.99.1-x86_64的 我已经成功地build立了集群,所有的服务都在Luci服务器和节点上运行正常。 iSCSI目标和启动器也正常工作。 问题是驱动器名称在重新启动任何特定节点后不会保留。 这会造成集群中的故障切换问题。 经过两天深入的在线调查,我已经尽我所能,从以下链接。 但是,我仍然坚持这个磁盘命名问题。 pubs.vmware.com/workstation-10/index.jsp?topic=%2Fcom.vmware.ws.using.doc%2FGUID-E601BE81-59B5-4B6C-BD96-2E1F41CBBDB2.html http://docs.fedoraproject.org/en-US/Fedora/13/html/Virtualization_Guide/sect-Virtualization-Tips_and_tricks-Configuring_LUN_Persistence.html http://jablonskis.org/2011/persistent-iscsi-lun-device-name/index.html PS:我正在使用没有防护机制的单path设置,因为VMWare不支持。 我已经使用了udev规则并分配了UUID。 我已经添加了以下规则; KERNEL ==“sd [az]”,SUBSYSTEM ==“block”,PROGRAM =“/ sbin / scsi_id -g -u -d / dev / $ name”,RESULT ==“14f504e46494c45526f416b7a4b4e2d4176584a2d45763153”,NAME =“webcl” 现在当我列出“fdisk”。 即使设备名称“webcl”出现在/ dev下,LUN的磁盘甚至不会显示在列表中 [root @ […]