在同一个部署中,我有一个问题和一个问题 首先,我们有一个正规的校园环境…各种windows客户端和部门和vlans和活动目录,NPS,你知道演练。 现在我有一堆计算机(约20台),出于各种安全原因,我需要操作无盘磁盘。 个人电脑都具有iSCSI兼容的NIC,从BIOS中我能够连接到目标和分配所需的LUN …我删除了硬盘,运行一个新的Windows 10安装,一切顺利,直到是时候重新启动。 我删除了安装USB,重新启动,BIOS连接iSCSI目标,Windows开始加载,然后3分钟的Windows图标,只是加载圈我得到一个错误信息说BOOT_DEVICE_INACCESSIBLE。 有人可以告诉我该怎么做,在特定的情况下? 我相信Windows已经通过引导装载程序阶段和操作系统本身应该加载,我不知道为什么它仍然在寻找启动设备。 如果实际的引导设备丢失(因为它没有磁盘,也没有安装介质),那么它应该卡在BIOS中,而不是在操作系统加载期间。 现在问题:我想在BIOS中支持VLAN的iSCSI SANconfiguration,选项是在那里(惠普Compaq 6200 pro sff),但禁用。 这是否意味着我将不得不在相同的VLAN上运行SANstream量和用户stream量? 这将是一个巨大的问题,因为机器频繁地从用户VLAN更改IP地址到服务VLAN(在用户login和使用催化剂交换机上的802.1x AAA注销时)。 或者将原始的本地vlan从操作系统中抽象出来(因为它被PC硬件所使用),并且以后会提供从Windows中为用户数据configuration另一个vlan(封装)的选项? 我最好添加一个额外的数据网卡,并有专门的SAN第1层接口? … 请指教 !! 非常感谢 !! 任何反馈和经验,非常感谢
应该使用什么存储连接方法将ESX服务器连接到具有10GbE链接的共享存储服务器? 具体说来,我有两台用于VMware ESX的ESX服务器和一台用于共享存储的服务器。 存储服务器是2个Xeon E5504 2GHz,24GB RAM,12xSSD + 12xSATA和电池备份RAID。 ESX服务器非常相似,但有两个小型SAS驱动器。 所有服务器都有10GbE适配器连接,如下所示: 我有一个ESX 3.5的许可证,但为了testing目的,我正在运行ESXi 4.1。 存储服务器运行Windows 7用于testing目的。 我知道至less有三种方法: 1. ISCSI 2. NFS 3. FCoE 你会推荐哪一个select,为什么?
我有一台我们希望运行XenServer的Supermicro 2uTwin2刀片服务器。 由于这款主板只提供英特尔的fakeraid,所以我希望能利用它从iSCSIfunction引导来获得一些冗余。 我无法弄清楚这是如何工作的。 我最好的猜测是,网卡的行为就像一个HBA,允许我启动一个CD,然后将操作系统安装到基于NIC的磁盘上。 但是,这似乎并不是这样。 我可以在BIOS中定义一个iSCSI目标,当服务器启动时,我会看到它瞬间连接。 然后它似乎断开连接并继续前进。 所以,我的问题是: 有人可以解释从iSCSI进程启动是如何工作的? 如何将操作系统安装到iSCSI卷上?
什么时候最好使用VMDK,RDM-V或RDM-P? 我一直默认为每个服务器使用带有VMDK文件的标准VMFS5数据存储。 不过,当我需要在虚拟机上存储过量的存储数据存储或备份服务器时,我通常使用RDM-V。 在这些系统上,我会给服务器一个操作系统分区,然后是一个原始映射的数据分区。 有没有理由不这样做?
现在的情况: 2xESX 3.5(即将成为vSphere) 2xESXi 3.5 所有四台服务器都是独立运行的。 两台ESX服务器开始用尽硬盘空间,但仍然在处理和内存方面做得非常好。 我们没有为服务器运行任何外部iSCSI或SAN存储。 ESX服务器也运行Ultra320 SCSI驱动器,这些驱动器在低存储速率下开始变得非常昂贵(300GB为550美元),所以我想避免在ESX服务器上投入更多的“小”驱动器,在发生故障的情况下,随着时间的推移变得越来越稀less 什么可能是最好的解决scheme? 现在我正在考虑DroboPros ,这将允许在更长的时间内获得更多的增长,这对于预算来说看起来不错,或者在具有2TB存储的戴尔Poweredge 2950(使用RAID 5中的6个中的3个托架)上,但是由于它运行SATA约3400美元,仍然有增长空间。 我也在试图获得vCenter和vMotion,但是上述两种解决scheme相互之间会有什么优势吗? 通过切换到外部存储,我希望不必更换这些服务器,直到他们在RAM使用最大化或CPU负载终于太大了。 更新 我将会selectPowerEdge来支持SAS驱动器,还是使用SAS的PowerVault,以便最终从外部存储器运行我们的VMWare。 DroboPro很好,但不是一个长期的解决scheme。 希望我能得到PowerVault! 谢谢大家的好评!
我正在尝试为我们在Windows Server 2012 R2上运行的文件服务器testing一些备份解决scheme。 我最近inheritance了这个IT环境,目前正在运行Cobian备份作为纯文件备份,似乎现在工作正常。 但我想testing内置的Windows Server备份,并将其运行到启用iSCSI的Synology NAS目标。 我已经连接了所有的东西,windows服务器备份也运行到LUN(只是testingatm)。 所以没有问题让一切运行。 它使用的是NTFS文件系统。 但是我还在想更远一点。 假设这个文件服务器发生故障,我可以从一台不同的服务器上挂载相同的iSCSI LUN,而无需初始化并将其格式化为一个新的驱动器。 当然不是在不同的机器之间同时访问LUN,它不是一个支持群集的环境或文件系统。 如果我可以在不同的服务器上安装它,以防发生故障,这将在我心中提供一个非常安全的远程备份,但仍然能够保持Windows服务器备份可以在“本地”磁盘上执行的多个版本的文件。 如果它是一个纯粹的networking共享,它不能这样做。
我正在评估使用两台现成的服务器构build廉价的iSCSI冗余SAN的可能性。 这个想法是运行Linux,起搏器和一个iSCSI目标 – 就像在linux-ha-examples上的SAN主动 – 被动一样。 当我读到以下内容时,同样的一页让我有些害怕: 在iscsi-target切换期间,可以在write-test.log协议中检测到一个间隙。 在我们的设置中,我们观察到延迟了30秒。 在连接ext3和iscsi故障转移时报告了一些问题。这个configuration已经用ext2和ext3testing过了,并且在两个文件系统上工作。 有没有人投入生产一个冗余的iSCSI SAN由Linux的盒子? 故障转移事件真的很糟吗? I / O冻结30秒听起来像是一场灾难,不是吗?
我正在build立一个具有3个服务器节点的VMWare ESXi 5环境。 戴尔推荐使用共享的2x Force10 S60交换机(iSCSI SAN,LAN / WAN)。 S60交换机非常强大。 他们有1.25 GB的缓冲区caching,<9us的延迟。 但他们是非常昂贵的(每个交换机的在线价格约为15000美元,实际报价则less一些)。 有人告诉我,“书中”至less应该有2个用于SAN的内部交换机,2个用于LAN / WAN的交换机(每个都有一个冗余)。 我知道每种方法的优点和缺点。 我想知道的是,使用较便宜的交换机从局域网中分离SAN是否更具成本效益? 这个问题的答案突出了我应该在SAN交换机中寻找的东西。 与SAN相比,我应该在LAN / WAN交换机上寻找什么? 有了上面关于SAN的链接问题: 如何衡量缓冲区延迟? 当你看到36 MB的缓冲区caching,是共享的还是每个端口? 那么36 MB将是每个端口768kb或36MB? 用3到6个服务器你真的需要多less缓冲区? 我还应该看什么? 我们的应用程序将大量使用HTML5 websockets(大量的持久连接)。 发送的数据量很小, 在客户端< – >服务器之间发送的数据不会被广播(不是聊天/ IM服务)。 我们也会做一些数据库报告(CSV导出,总和,一些连接)。 我们是一个小企业和预算。 我们可能只能花费不超过2万美元的开关总数(2或4)。
我有一个服务器与ESXi 5和iSCSI连接的networking存储。 存储服务器在8.0.4版本的Raid-Z中有4x1Tb SATA II磁盘。 这两台机器通过千兆位以太网相互连接,与其他设备隔离。 中间没有开关。 SAN盒本身是1U超微型服务器,具有3GHz的Intel Pentium D和2G内存。 磁盘连接到集成控制器(英特尔?)。 raid-z卷分为三个部分:两个zvols,与iscsi共享,一个直接在zfs之上,与nfs和类似的共享。 我ssh进入freeNAS框,并在磁盘上做了一些testing。 我用dd来testing磁盘的第三部分(直接在ZFS之上)。 我从/ dev / zero复制了一个4GB(2倍的RAM)块到磁盘,速度是80MB / s。 其他的iSCSI共享zvols是ESXi的数据存储。 我做了类似的testing与time dd ..在那里。 由于dd没有给出速度,我把时间转移的数据量除以time 。 结果是大约30-40 MB / s。 那大约是freeNAS主机的一半速度! 然后,我testing了在同一ESXi主机上运行的虚拟机上的IO。 虚拟机是一台轻巧的CentOS 6.0机器,当时并没有做任何事情。 当时没有其他的虚拟机在服务器上运行,而磁盘arrays的另外两个“部分”未被使用。 类似的ddtesting给了我约15-20 MB / s的结果。 这又是下一个结果的一半左右! 当然这是raid-z – > zfs – > zvolume – > iSCSI – > VMFS – > […]
我在ESXi中为所有vmNIC,vmKernel,vSwitches,iSCSI绑定等启用了巨型帧(9000) – 基本上在ESXi的任何位置都有一个我已经放入了9000的MTU设置。 交换机上的端口(Dell PowerConnects)都是为巨型帧设置的。 我有一个带有2个控制器的戴尔MD3200i,每个控制器有4个iSCSI端口。 这些端口中的每一个都被设置为巨帧(9000)。 所以现在的问题是: 我是否需要login到正在运行的每个Windows Server VM,并深入查看NIC属性,并在设备pipe理器的NIC属性中手动将其设置为Jumbo Frames? 什么是testing巨型帧确实按预期工作的最佳方式?