Articles of iscsi

如何在Linux上解除OpenVZ / LXC的数据复制?

我想设置多个类似的容器,我想重复删除。 我唯一想到的解决scheme是使用OpenSolaris ZFS,并与NFSv4 ro iSCSI目标共享zfs卷,并在其上创build通常的ext3 fs,以用作OpenVZ VE存储。 任何其他解决scheme的重复数据删除? 你有什么想法? POS /缺点? PS我已经试过ZFS保险丝,即使没有大量的容器使用,它也消耗了大量的CPU。 反正坏主意肯定对生产不利本地Linux ZFS端口现在非常不稳定

iSCSI写入caching

有没有办法在Linux iSCSI启动器上设置本地磁盘分区以进行写入caching? 数据将首先写入一些高性能本地磁盘,然后再通过iSCSI安装在电容式磁盘上。 谢谢

ISCSI驱动器不安装在Windows Server 2012中使用

我有IBM Storvize SAN设备,这是ISCSI目标。 主机窗口服务器2012上的IScSi启动器正在显示连接到SAN上的卷的状态。 当启动程序连接具有正确大小的卷时,在磁盘pipe理应用程序中显示为新磁盘。 状态显示连接在目标和启动器上。 在2个ESXI主机(VIA直连SAS电缆)上共享相同的卷,并且可以访问 我尝试连接的主机位于远程位置,可通过networking访问 但是,我无法为此卷分配驱动器号,因此无法从启动器访问卷上的数据。 任何解决这个问题的build议。

为软件iSCSIconfigurationVMWARE服务器

我有一个IBM x3650与以下组件: 6 Gb NIC(全部连接到同时包含ISCSI vlan和SAN iSCSI连接的Extreme Networks x450交换机) 我需要对软件iSCSI进行正确的configuration才能连接到SAN上的LUN。 目前我有它设置如下,并且它连接并看到LUN: 1个网卡 – vSwitch0 / vswif0 2个NIC – vSwitch1 / vswif1 / vmkernel 我的问题确实是: A)为了冗余和负载平衡,我应该如何正确使用它们? B)我可以在iSCSI操作上获得vmkernel的吞吐量(成组)吗? 一旦我在这一个正确的configuration,我将添加第二个相同的服务器到相同的LUN,以便我可以做vmotion等。 任何指导表示赞赏。 如果您需要澄清,请提出问题。 附上一些截图 VERSION是3.5.0,158874

drobo亲的速度?

今年(最后一季),我正在寻找一个满载的drobo pro。 有没有人真的发现任何基准呢? 我见过很多人说现在drobo mk2的速度比stellerless。 我可能会想通过iSCSI接口使用它,但我已经在fw800速度上看到了+ 50%的传闻。 有没有人的实际证据的速度呢?

是否可以跨FC和iSCSI多path?

也许这是一个愚蠢的问题,但我想知道是否可以通过FC连接和iSCSI连接多存储一个存储arrays? 考虑到多path的主要观点似乎是在硬件故障面前增加弹性,似乎合乎逻辑的是,提供依赖于networking硬件的存储path将是依赖FC的path的适当的弹性替代scheme。 我很欣赏两者的性能可能不尽相同,但是如果没有足够的多个FC连接(和结构)的预算,这可能不是一个可接受的低成本解决scheme吗?

Openfiler iSCSI性能

希望有人可以指出我正确的方向与我遇到的一些iSCSI性能问题。 我在旧的ProLiant DL360 G5上运行Openfiler 2.99。 双Xeon处理器,6GB ECC内存,英特尔千兆服务器网卡,SAS控制器和3个10K SAS驱动器在一个RAID 5中。当我直接从盒子运行一个简单的写testing,性能非常好: [root@localhost ~]# dd if=/dev/zero of=tmpfile bs=1M count=1000 1000+0 records in 1000+0 records out 1048576000 bytes (1.0 GB) copied, 4.64468 s, 226 MB/s 因此,我创build了一个LUN,将其连接到另一个运行ESXi 5.1(Core i7 2600k,16GB RAM,Intel千兆服务器NIC)的盒子,并创build了一个新的数据存储。 一旦我创build了数据存储,我就可以创build并启动一个运行CentOS的虚拟机,它具有2GB的RAM和16GB的磁盘空间。 操作系统安装正常,我可以使用它,但是当我在虚拟机内部运行相同的testing时,我得到了截然不同的结果: [root@localhost ~]# dd if=/dev/zero of=tmpfile bs=1M count=1000 1000+0 records in 1000+0 records out 1048576000 bytes (1.0 GB) […]

在使用Synology Hybrid RAID的iSCSI设备上扩展卷时是否有停机时间?

主题总结了这个场景。 我相信答案是没有停机时间,但系统在重build期间可能会变得很慢。 这很好。 但是,如果有宕机,多久? 短暂维修时间的小点是可以接受的。 重build的日子需要一个新的计划来评估如何处理。 详细资料:客户端有一个连接到Synology RS2414RP +(运行DSM 5)的iSCSI连接,它是一个有12个托架的机架式装置。 自最初设置以来,所有托架都装有3TB驱动器。 而且由于它是专门用于一个大型iSCSI卷的设备,因此设置为使用最大的空间量。 尽pipe这个空间大概在1GB左右,但是它已经工作了好几个月了。 现在,系统偶尔会遇到“只读”模式,我认为这是由于iSCSI卷的精简configuration达到卷本身的外部限制所致。 通过SSH和传统的PostgreSQL数据库备份来pipe理卷的“死灰复燃”,这个数据库在保存iSCSI分区的基础卷上释放了大约36MB的空间。 这是足够的喘口气让iSCSI卷再次登上。 但显然是一个等待发生的问题。 所以,由于这台Synology设备的音量格式为具有2个磁盘容错function的Synology Hybrid RAID设置,因此我们决定用一个4TB的驱动器replace其中一个3TB的驱动器,以扩大音量。 该驱动器已被插入,格式化和正在运行通过糖蜜平价检查阶段缓慢。 但一旦完成奇偶校验,我将不得不login才能扩大音量。 在最后阶段,从服务中断的angular度来看会发生什么? 由于Synology DSM是基于LVM(Logical Volume Manager,逻辑卷pipe理器)等标准开放源代码工具,所以我在网上阅读的内容可以在不增加停机的情况下进行扩展 。 但是由于我们正在谈论27TB的存储,我想要双倍/三重地确保我的假设是正确的。 基本上是这样的:当奇偶校验完成后,我又扩大了音量,所有的服务都会继续运行,这个扩展会作为后台进程发生,从而保证零停机。

iSCSI:每个目标的LUN?

我的问题特别涉及到ZFS / COMSTAR,但我认为它通常适用于任何iSCSI系统。 是否应该为每个要公开的LUN创build一个目标? 或者,有多个LUN的单个目标是好的做法吗? 两种方法都会对性能产生影响吗? 还有一个交叉点,其他的方法是有道理的吗? 用例用于VM磁盘,其中每个磁盘(zvol)都是一个LUN。 到目前为止,我们已经为每个VM创build了一个单独的目标。 但是包含所有LUN的单个目标可能会极大地简化pipe理……但是我们可能需要每个目标有数百个LUN。 (然后可能有数十个发起者连接到该目标)

如何将iSCSI系统磁盘从XenServer转换为其他格式

也许这是一个相当愚蠢的问题。 我在XenServer上安装了一个新的虚拟机。 它从NAS加载来自iSCSI的完整系统。 现在,我正计划迁移到Proxmox,因为XenServer在USB直通方面不足。 不过,我不知道如何: a)访问iSCSI磁盘并将其转​​换为其他格式(在这种情况下为qcow2,但格式现在不重要)。 b)从系统中获取该图像。 c)将新机器再次连接到iSCSI NAS。 我不知道该怎么做,因为我不能从NAS(QNAP)“读取”iSCSI分区。 在XenServer中,我知道如何创build一个快照到本地存储,所以迁移该映像并不是那么困难。 但是…以后如何回到iSCSI? 任何build议是值得欢迎的。 提前致谢