我在RAID 1(300 Gb)中有两个HP磁盘,并且希望在C:中总共有600 Gb的RAID 1 + 0中有两个额外的磁盘。 我想知道是否有可能使用arraysconfiguration实用程序而不丢失和数据? 控制器是Smart Array P410i 512Mb。
我有一个带8个SAS磁盘和一个MegaRAID 9271-8i控制器的Open-E文件服务器,我想configuration两个相同大小的逻辑RAID10卷。 一个卷拥有大约66%的写访问权限和33%的读访问权限,另一个卷大约具有相同数量的写访问权限(它是用于故障转移的相同的第二个文件服务器的镜像)。 目前,我select了前4个磁盘,让LSI控制器configuration向导使用所有容量创buildRAID10卷,然后对第二个卷的剩余磁盘执行相同操作。 但是我也可以select所有8个磁盘,并使用一半容量创build第一个卷,然后使用相同的磁盘和其余容量创build第二个卷。 这两种configuration有性能差异吗? 还是我必须运行testing来找出这个呢?
我在富士通BX922S2刀片服务器上运行VMware ESXi 5环境,并连接到富士通DX90 SAN。 我对RAID5卷没有任何问题,但RAID10卷(对于MSSQL)performance出可笑的写入延迟 – 有时超过1000毫秒,并且从不低于30毫秒。 这些延迟数字在VMware中进行测量,使用相关SQL Server的性能选项卡,更改为高级,然后切换到数据存储视图。 DBA注意到了这一点,并写了一个快速的脚本来连续在服务器上创build一个1GB的文件。 将SQL日志驱动器迁移到同一SAN上的RAID 5卷中,显示没有明显的写入延迟。 任何人都可以指向任何明显的我已经configuration不正确,会导致这个?
我当前在RAID10中使用的4xSAS15k驱动器的大量读写操作使我想到了一个新的快速存储器。 我的服务器忙于一个苛刻的数据库,大量的页面,PHP文件和图像。 所以我正在考虑去SSD固态硬盘路线(三星SSD 850 PRO),但所有有争议的信息,我在互联网上find我不能决定如果我真的应该用SSD在RAID或跳过RAID,并让他们作为“独立”。 有人说,如果没有TRIM(很多RAID控制器没有这个function),SSD在RAID中的耐久性会使它们磨损,并在1年的使用时间内死亡。 另一些人则说,TRIM是旧消息,而新的SSD企业级(Samsung 850 PROs?)磁盘具有过度configuration,并且不再需要TRIM,+ Samsung对其850 PRO提供10年保修。 在RAID10与2xSSD(1Tb)中,4xSSD(512Gig)有什么优缺点? 三星850 PRO将在RAID10中服务多久? 我想有最快的读/写速度,但不希望SSD在一年内死亡,也不希望RAID控制器经常死机(他们说不是死掉的SSD,而是控制器)。
在上一个问题的后续(这是一个很好的答案 ),我很想知道在RAID5上运行交换可能不会比在RAID10上更好。 我的想法是,你可能会失去一点性能,因为它不会是纯粹的条纹,但如果一个驱动器停机,你可以重build从缺less的奇偶校验位。 也许这是没有道理的,条纹镜子会更好。 扩张 感谢有关购买更多RAM的意见 – 但请注意,这不是什么问题。 为了这个问题,你可以假定系统已经被最大化了。 我完全意识到“真实”内存与“虚拟”内存的偏好。 一些环境预期或需要交换configuration(注意一个是我工作最严重的系统,这需要交换段至less等于机器上的物理环境才能被供应商支持)。 因此,谨慎考虑实施交换这种环境的最佳方式。
我从6个驱动器创buildRAID10arrays。 在近布局中创build时,例如 mdadm –create / dev / md2 –chunk = 64 –level = 10 –raid-devices = 6 –layout = n2 / dev / sda1 … 检查系统报告的条带大小: cat / sys / devices / virtual / block / md2 / queue / optimal_io_size 结果是196608,正如预期的那样,例如3个数据驱动器(RAID10中总共6个数据块的50%)×64K块= 192K条带。 现在,当使用–layout=f2选项创build相同的数组时, optimal_io_size报告393216 ,例如两倍大。 现在, 根据指甲布朗 (mdadm raid10作者), “远”布局将所有数据放在所有驱动器的前半部分中,然后在所有驱动器的后半部分以类似的布局放置第二个副本 – 确保所有块的副本都处于打开状态不同的驱动器 这将会产生读取性能,这与raid0类似于全部驱动器的读取性能相当,但是由于将会有更多的驱动器磁头寻找,因此写入性能会大大降低。 所以看来操作系统是build议我最好使用类似RAID0的条带大小(在arrays中的所有磁盘上),而不是“传统”的RAID10条带大小(在arrays中的半个磁盘上)。 […]
所以我们的虚拟机已经坏掉了(它实际上是一个Azure中的Linux机器),我们在这个虚拟机上运行一个4个磁盘的RAID10arrays。 这是一个Ubuntu的盒子。 从我可以告诉四个数据磁盘是好的,这只是虚拟机被拧紧。 现在,我可以从该机器上分离磁盘并创build一个新的Linux实例,然后将这些磁盘附加到该新实例。 问题是,如何让mdadm使用这些磁盘上的数据设置RAID10arrays(我不希望它作为新驱动器被擦除)。 另外,这是否按照什么顺序我附加磁盘或将mdadm找出哪个磁盘是哪个数组?
长期以来,我在用于KVM虚拟化的CentOS服务器上遇到性能问题。 我正在运行带有4个磁盘( Seagate ST2000DM001, 2TB, 7200rpm SATA-600 )的软件RAID-10 。这些KVM虚拟机正在运行自己的LV。 一旦安装了一些虚拟机,每增加一台虚拟机,性能就会下降。 现在,安装Debian 7 minimal需要大约3个小时。 在没有虚拟机的空盒子上,这个过程最多只需要几分钟。 奇怪的是,即使有37个虚拟机,也几乎没有磁盘I / O。 但是那个时候需要做的每一个I / O,都会把关于那个特定LV容量的"dm"设备带到100%。 出于某种原因,它看起来像"dm-xx"设备不能使用所有的磁盘。 下面是我的意思的一个例子。 在这个问题中, sd[a/b/c/d]通常是40%到60%的负载,但是一个或多个dm设备负载很高,没有任何严重的I / O。 请注意,虚拟机正在使用的特定dm-0的%util 。 Device: rrqm/s wrqm/sr/sw/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util sdb 10.00 0.00 5.00 36.00 256.00 424.00 33.17 0.86 20.73 11.02 45.20 sdd 0.00 1.00 0.00 48.00 […]
我有一个HP Smart Array P400i RAID控制器 ,有6个磁盘 ,工作在RAID 1 + 0。 这是它的样子: Mirror Group 0: physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 72 GB, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 72 GB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 72 GB, OK) Mirror Group 1: physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 72 […]
嗨,大家好,我的FreeNAS机箱里只有4个固态硬盘。 此服务器仅用于为我的Citrix XenServer池提供单个iSCSI扩展区,并想知道是否应该将它们安装在RAIDZ或RAID 1 + 0configuration中。 这不是用于生产的任何东西,只是为了我的testing实验室,所以我不确定哪一个在这种情况下会更好。 我会看到速度或可靠性方面的重大差异吗? 目前该服务器有三个500GB西数蓝驱动器,当我部署我们的软件的新版本时,它的速度很慢,因此升级。