我有10个磁盘,每个8TB在一个硬件RAID6(因此,8个数据磁盘+2个奇偶校验)。 在回答了一个非常类似的问题之后 ,我希望自动检测所有必要的参数。 但是,在最后创buildXFS文件系统时,我得到了 # mkfs.xfs /dev/vgdata/lvscratch meta-data=/dev/vgdata/lvscratch isize=256 agcount=40, agsize=268435455 blks = sectsz=4096 attr=2, projid32bit=1 = crc=0 finobt=0 data = bsize=4096 blocks=10737418200, imaxpct=5 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=0 log =internal log bsize=4096 blocks=521728, version=2 = sectsz=4096 sunit=1 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 这看起来像条纹没有被使用过。 由于我在不同的网站上发现了不同的术语(条纹大小,条纹大小,条纹大小,…),我想问一下我是否已经手动获取了正确的参数。 RAID 6已经设置为256KB的条带大小: # […]
我在很多方面都使用过MDADM + LVM2。 MDADM同时用于RAID0和RAID1arrays,而LVM2用于MDADM之上的逻辑卷。 最近,我发现LVM2可以用于MDADM(因此,减去一层,因此减less了开销),用于镜像和剥离。 然而,有些人声称LVM2镜像arrays的读取性能不如在MDADM(RAID1)之上的LVM2(线性)那么快,因为LVM2一次不能读取2+设备,而是使用第二个或更高设备第一个设备故障的情况。 MDADM一次从2个设备读取(即使在镜像模式下)。 谁能证实呢?
我有运行系统与低IO利用率: HP DL380G7(24GB内存) 具有512MB battary写入caching的Smart Array p410i RAID10中的6个SAS 10k rpm 146GB驱动器 Debian Squeze linux,ext4 + LVM,hpacucli安装 iostat (cciss / c0d1 = raid10arrays,dm-7 = 60G lvm分区testing): 设备:rrqm / s wrqm / sr / sw / s rmb / s wmb / s avgrq-sz avgqu-sz await svctm%util cciss / c0d0 0,00 101,20 0,00 6,20 0,00 0,42 138,58 […]
我已经在VirtualBox中创build了一个ubuntu VM实例。 一开始我只分配了7GB的存储空间,现在虚拟机已经空间不足了。 首先,我通过VirtualBox前端向VM添加了另一个8GB(/ dev / sdb)。 然后我设置了以下分区: $ sudo fdisk -l /dev/sdb Disk /dev/sdb: 8589 MB, 8589934592 bytes 40 heads, 1 sectors/track, 419430 cylinders, total 16777216 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk […]
我试图调整我的NAS,运行openfiler,并想知道为什么我在RAID 5中的4个WD RE3驱动器中读取性能相对较差。 编辑: 请注意我说的缓冲磁盘读取速度没有caching的速度 编辑:改变格式,以清除有两组输出。 当我在元设备上运行hdparm时,我得到了我期望的性能水平,降到了音量,而且是速度的三分之一! 任何人都知道为什么? LVM不好吗? 院长 元设备/ dev / md0结果 [root @ nas2 etc]#hdparm -tT / dev / md0 的/ dev / md0的: 定时caching读取:2.00秒中的4636MB = 2318.96MB /秒 定时缓冲磁盘读取:3.01秒中的524 MB = 174.04 MB /秒 卷组/ dev / mapper / vg1-vol1结果 [root @ nas2 etc]#hdparm -tT / dev / mapper / vg1-vol1 的/ […]
我需要通过USB2连接的SATA HD中的LVM逻辑卷访问ext3分区到OS X 10.6的iMac。 是否可以看到来自OS X的LVM卷? 怎么样? 磁盘工具说,连接的设备是未知的,并build议初始化它。
了解了一些有关LVM镜像的知识后,我考虑replace目前使用的RAID-1scheme来获得一些灵活性。 问题是,根据我在互联网上发现的,LVM是: 至less在读取时(因为只有单个卷被用于读取),则比RAID-1慢。 不可靠的电源中断,并要求磁盘caching禁用,以防止数据丢失。 http://www.joshbryan.com/blog/2008/01/02/lvm2-mirrors-vs-md-raid-1/ 另外,似乎至less有几个安装指南( http://www.tcpdump.com/kb/os/linux/lvm-mirroring/intro.html ),实际上需要第三个磁盘来存储LVM日志。 这使得安装程序在2个磁盘安装中完全无法使用,并且降低了在更多磁盘上使用的镜像磁盘数量。 任何人都可以评论上述事实,让我知道他使用LVM镜像的经验吗? 谢谢。
我想知道在Linux上用软件创buildRAID10的最佳做法是什么,以后可以通过添加磁盘或扩展下面的卷进行增长。 我在亚马逊上使用EBS,我想创build8x1GB RAID10,但能够根据需要稍后增长,如果可能,最小化任何数据迁移(当然,宕机)。 如果任何MDADM / LVM是最好的组合,是否有任何性能或稳定性权衡,我需要知道的?
我首先使用lvm安装了我的ubuntu服务器( 11.10 amd64 ),但没有完全掌握它的概念。 我认为这部分是由于我的两个磁盘上的分区混乱(在我看来)。 我从一开始就使用grub2来安装所有的东西来启动我的Ubuntu,后来我更新到Ubuntu Server 12.04 ,没问题。 情况如下: 截至今天,我根本无法启动,在grub选项之前似乎没有进化(编辑:来自Pavel A的精确度)。 我可以启动使用服务器安装liveCD选项救援一个破碎的系统 ; 我设置networking访问,但似乎没有/run文件夹(不知道它是相关的,但在一些论坛似乎不正常); 我build的设备图如下: VGA包含sda1 [Linux分区], sda2 , sda3 [ / ]和sda5 (后者看起来与sda3相同,描述符相同) VGb包含sdc1 , sdc2 [ /boot ]和sdc3 [ /home ] (两人的PE或LE都不一样,但我最终想要把所有东西都放在同一个VG中) 最后,我对引导环境做了(干净地)从引导分区中删除较旧的内核(236MB大,99%已满)。 我运行grub-install (安装启动后),但得到了各种错误: 无法在/dev/sda上安装,因为core.img不适合(第一个分区从32开始) /dev/sdc上的grub-install输出显示error physical volume pv0 not found 我甚至试图grub-install直接grub-install到/dev/sda5 ,显然没有错误,但在启动时没有成功 我在这里查看[serverfault]: Grub2在探测/安装时报告没有find物理卷pv0 我看了这里[Ubuntu论坛]: 求助]用liveCD安装内核并修复grub2 我看了这里[Ubuntu的帮助]: 修复一个破碎的系统 我看了这里[Ubuntu的论坛]: [已解决] […]
关于SSD和TRIM的相关问题(请参阅: 可能在Linux中使用ext4 + LVM +软件RAID上的SSD TRIM(丢弃)工作? ),事实certificate,dmraid现在(或短期)可以在RAID-1上支持TRIM。 通常,我们使用md(通过mdadm)创buildRAID-1卷,然后使用LVM创build卷组,然后使用我们select的文件系统(最近的ext4)进行格式化。 我们已经这么做了很多年了,Google和ServerFaultsearch似乎证实这是使用卷pipe理进行软件RAID的最常见方式。 谷歌search似乎表明,dmraid是用于所谓的“fakeRAID”configuration,在控制器中有RAID级别的硬件'帮助',这是我们没有的(也不想用 – 我们想要一个完整的软件解决scheme)。 既然我们想在我们的SSD上使用TRIM,而且由于md似乎还不支持TRIM,我想知道是否可以使用dmraid而不是md创buildRAID-1(和RAID-1 +0)的软件卷,没有硬件支持(即,只是插入一个愚蠢的SATA / SAS总线)?