Articles of iscsi

为iSCSI SANconfigurationHP“多function”NIC

我正在使用HP P2000在这里实施SAN; SAN本身就是一个订单(ETA几个星期),所以同时我将剩下的设备投入运行。 SAN具有双控制器,我将对整个设置进行多path处理。 以下是SAN的计划: 我得到了安装和configuration的交换机; 它们是默认VLAN中除了连接到我的pipe理VLAN的1以外的所有端口的专用交换机。 今晚的任务是在将连接到SAN的两台现有服务器(Windows 2008R2)中安装惠普“多function”网卡 – 我购买的HP NC382T是:1)双端口能够连接到两个光纤networking是的,网卡本身变成了一个单一的PoF,但服务器只有1RU,我不能在物理上安装2个额外的网卡)2)它有一个ToE 所有安装好,但我无法弄清楚寻址。 在HP NCU(networkingconfiguration实用程序)中,我已将两个端口都作为iSCSI设备启用,并根据图像给予静态地址,但Windows不会“看到”该configuration。 这两个端口仍被列为以太网适配器(如预期),但IPconfiguration不存在。 Windows给了他们autoconf地址(169.254.xx),并且没有192.168.101 / 24或192.168.102 / 24的路由。 根据HP指南configurationNCU: http : //bizsupport.austin.hp.com/bc/docs/support/SupportManual/c00577553/c00577553.pdf 那么,我做对了吗? 我怀疑使用Windowsconfiguration以太网端口“正常”意味着ToE将不会被使用。 另外,SAN端口(绿色A,B,C和D)应该如何处理? 我在想:A:192.168.101.1 B:192.168.102.1 C:192.168.101.2 D:192.168.102.2

iSCSI SAN仍然是集群中的一员? 它可以高度可用吗?

我目前正在评估连接到Win2k8存储服务器iSCSI SAN的Win2k8双节点文件服务器群集。 故障转移工作正常,但我现在想知道如果iSCSI SAN盒子崩溃会发生什么。 有没有办法让SAN高度可用? 我以为使用dfs可以帮助将数据复制到另一个SAN,但我不确定是否有从一个SAN自动故障转移到另一个的方法。 非常感谢, 安德鲁

为什么在使用Linux时,我的MPIO与SAN的上限是1 Gbps?

我正在将RHEL5盒连接到Dell EqualLogic PS5000X,即使在使用带有三个千兆网卡的MPIO时,也可以看到最高1 Gbps的速度。 我在PS5000X上有三个接口,服务器上有三个专用iSCSI接口连接到同一交换机。 当使用多个接口连接到SAN时,我只能获得1 / n的stream量。 我遵循戴尔安装指南 ,除了吞吐量数据之外,一切似乎都完美无缺。 [root@testbox ~]# multipath -ll linuxvol (36090a02840c3bd2f5ec324010000707f) dm-5 EQLOGIC,100E-00 [size=50G][features=1 queue_if_no_path][hwhandler=0][rw] \_ round-robin 0 [prio=3][enabled] \_ 6:0:0:0 sdf 8:80 [active][ready] \_ 14:0:0:0 sde 8:64 [active][ready] \_ 15:0:0:0 sdi 8:128 [active][ready] [root@testbox ~]# dd if=/dev/zero of=/mnt/linuxvol/testfile obs=64k count=16M 16777216+0 records in 131072+0 records out 8589934592 bytes (8.6 […]

本土的SAN – 拓扑结构的想法?

我有兴趣使用以下技术在Linux上手动运行SAN解决scheme: iSCSI的 mdadm袭击 LVM 多 XFS / GFS / ??? 组合的NIC 硬件方面,我正考虑在目标和启动器上使用多个gigE网卡的2台gigE(或更好的)交换机。 人们对于如何configuration这个方面有什么build议,理想情况下是推定完全n + 1(min)冗余? 另外,在iSCSI“结构”中间是否需要一组聚合器主机? 像这样的东西: 目标(使用mdadm)<-gigE->聚合器主机(lvm)<-gigE->启动器 还是这样做更好: 目标(不镜像)<-gig->聚合器主机(mdadm)<-gigE->启动器(lvm) 有很多方法来devise这个,我会对其他人在做类似的事情上有什么经验感兴趣? SAN将用于VMware映像和通用文件服务(如果可行的话还会加上一些数据库)。

无法在Citrix XenServer中附加多pathiSCSI

亲爱的世界人民。 重新启动后,在XenServer上重新连接iSCSI目标时出现问题。 每当我尝试,我会得到几个错误。 这是我在冗余存储的附加屏幕上,它无法重新连接后: http : //i.imgur.com/jkBYI1g.png 所以它find了Target IQN和Target LUN,但是当我点击完成后,出现以下错误: Scanning for LVM over iSCSI SRs on 192.168.3.1 Logging in to the iSCSI target failed. Check your username and password. Check your settings and try again. 有趣的是,我在Synology的Target上禁用了CHAP。 即使删除Xen中的存储,然后尝试再次连接,相同的错误。 如果我禁用多path,我可以附加它就好了。 但是,如果我启用多path,我得到的错误。 有谁知道为什么?

服务器重新启动后,iSCSI目标卡住重新连接

我一直有一些持续的问题,我的iSCSI连接在重新启动服务器后没有重新连接,如下所示: 操作系统是Windows Server 2008 R2。 iSCSI设备用于与另一个相同服务器处于故障转移群集中的SQL Server 2008 R2实例。 两台服务器都有同样的问题。 目标被列为“最喜欢的目标”,不需要validation。 摘要已closures。 iSCSI目标通过Synology NAS设备显示。 另外值得一提的是我的文件/打印服务器(相同的操作系统)也存在同样的问题。 我试图自己做研究,但迄今为止没有太多的帮助。 这是一个非常基本的设置,大多数解决scheme都采用更类似于SAN的configuration。 除NAS之外的所有服务器都在ESXi 6主机上(每个主机上的一对VM)。 编辑:发现选项卡: 更新:日志消息:

使用MPIO将Freenas连接到Windows Server 2016

我们最近在我们的Windows Server中使用了RAID卡。 我们使用这个借口来扩大我们的存储池并实施一些其他的升级。 当前的设置是: FreeNAS服务器 使用的服务器是带有双核心至强和32 GB内存的戴尔Poweredge R710。 我们打算在不久的将来升级到64 GB。 硬盘是10倍的WD RED 4TB。 它们通过LSI SAS 9201-16e连接到服务器。 FreeNAS服务器应该连接到一个具有两个并行10Gbps连接的Windows服务器。 在FreeNAS服务器和Windows服务器中使用的卡都是Mellanox MNPH29D-XTR。 Windows服务器 Windows Server是带有两个六核Xeon CPU的HP Proliant DL380 G7。 该服务器应该pipe理FreeNAS的iSCSI共享并分配用户权限。 我们的问题是以下。 当我在Windows中连接一个iSCSI连接时,我得到下面的速度testing结果(只看连续读写): 顺序读取(Q = 32,T = 1):1180.009MB / s 顺序写入(Q = 32,T = 1):880.378MB / s 温我连接第二个iSCSI连接,并告诉Windows正在看同一个存储池,我得到以下结果: 顺序读取(Q = 32,T = 1):1613.847MB / s 顺序写入(Q = 32,T = […]

专用网卡或iSCSI专用端口?

当指定和configuration一台将使用共享iSCSI存储的机器时,我已经阅读了很多文档,build议使用专用networking适配器来进行iSCSI通信。 这很有道理,我没有问题。 我确实有这个问题 – 是否应该build议使用单独的物理网卡,还是双端口/四端口网卡上的专用端口/端口会一样好呢? 我怀疑,只是使用共享网卡上的专用端口将是一样的好。 任何input不胜感激。

Zimbra – NFS与iSCSI

我们将在接下来的几个月内将邮件服务器从postfix / courier迁移到Zimbra。 我们已经成功地通过从Dell Equalogic导出的iSCSI LUN运行原型服务器。 Equallogic不是我们的“生产”SAN,而是NetApp FAS 2050。 有一个基于iSCSI LUN的系统存在的问题之一是缺乏灵活性。 如果我们需要resize而不必将整个系统closures呢? 我觉得将Zimbra数据存储放在NFS导出上会有所帮助 随时resize的灵活性,而无需停机 过去文件修订的快照更容易访问 没有必要担心文件系统越来越腐败/没有fsck'in 缺点是切换到NFS 速度 可靠性(?) 速度 问题是,Zimbra(运行一整套守护进程,包括spamassassin,jetty和最重要的MySQL)是否可靠和稳定,足以在NFS下运行 – 我们是否将自己设置为丢失在NFS下运行MySQL的数据? 如果我们select在NFS下运行它,我们可以做些什么来调整性能?

2012R2 HyperV版本或2008R2标准版上的Hyper-V?

我们目前正在运行VMWare ESXi,包括1个Windows 2008 R2 Standard实例,1个Windows 7实例和2个Linux实例。 所以,最近我想升级我的服务器,因为发生了很多事情。 我无法find英特尔1GB多端口适配器,所以我得到Dlink的适配器,但它不被VMWare支持。 另一个问题是,我们的硬件NAS非常慢,而且他们的技术支持最多也就是不知所措。 20MB / s的带有网卡绑定的RAID5,只有iSCSI在性能方面真的不能说太多。 所以我遇到了只能在Windows下运行的Starwind VirtualSAN。 所以我打算把我的VMWare迁移到HyperV。 我们只有1个Windows 2008 R2标准许可证可用。 但是,当我在微软网站上阅读时,Windows 2008 R2 Standard可以使用1台虚拟机和1台主机。 这个Windows 2008 R2负责Citrix远程桌面。 我已成功执行迁移,但在执行实时迁移之前还有一些问题。 因为我可以运行2个Windows 2008 R2标准总计(主机+虚拟机),我应该在Windows 2008 R2标准主机上运行Windows 2008 R2标准,还是使用Windows 2012 R2 HyperV主机更好? 在2012 R2有什么新function我应该知道比2008 R2的对应? VMWare的Ubuntu支持非常好,速度非常快。 HyperV性能如何? 有人试图比较HyperV和VMWare上的Ubuntu服务器吗? 让虚拟机从主机上访问iSCSI还是只给它们分配固定的VHD更好? 即100GB的VHD + 2TB的iSCSI,或者只是把100GB的VHD和2TB的VHD? iSCSI将通过主机上的大约16GB高速cachingRAM进行caching。 我真的必须在HyperV主机上安装Starwind,因为我有另外一台当前正在访问iSCSI的服务器。 感谢您的帮助