Articles of lvm

应该使用什么RAID级别

我正在为一个服务器构build项目工作,并inheritance了以下项目,我需要弄清楚处理和configuration的最佳方式。 其中2个: I / O Crest SY-PEX40008 PCI-e SATA II主控制器卡 8或9个: 日立Deskstar 5K3000 HDS5C3020ALA632(0F12117)2TB 32MBcachingSATA 6.0Gb / s 3.5“内置硬盘 这个盒子的主要目标是通过NFS为许多客户端提供存储服务和文件共享,如果我们不能让Windows客户端连接到NFS,可能是SAMBA,并且可能用作某些电视或媒体盒的DNLA服务器我们已经从服务器上存储的内容。 我们还希望将这部分存储空间用作Linux KVM的可能空间。 我们还希望在Red Hat / Cent OS / Scientific Linux世界中使用以下项目: 用于可扩展或可变空间的LVM 用于encryption数据的LUKS 而某种RAID级别 – 但是我们发现了下面列出的令人困惑的信息,我们不确定它是否准确 Linux的LVM支持RAID 0和RAID 1 Linux的md支持RAID 0,RAID 1,RAID 4,RAID 5,RAID 6和所有嵌套。 I / O Crest卡支持RAID 0,RAID 1,RAID 5和RAID 10 我们所面临的挑战和问题包括: 什么样的RAID级别对于我们打算使用的应用程序来说是最好的? 让I […]

新的2x8TB文件服务器的RAID / LVMconfiguration是最安全的?

我只是build立一个全新的PC作为一个文件服务器。 它有一个用于操作系统(ubuntu 12.04)的60GB固态硬盘,以及8个2tb数据驱动器。 我正在寻找最安全,最稳定的方式来build立一个具有冗余的巨型存储池。 注意事项: 我的首要任务是保护数据。 可用性,可靠性,弹性,可恢复性和风险pipe理。 所有那些意味着不会丢失我的文件的单词。 我不仅仅关心袭击types本质所暗示的理论风险,而且还关注简单性和最小失败点的实际考虑。 特别是考虑到我不是RAID或FS技术方面的专家,我的排除故障能力仅限于我可以谷歌了。 这不是一个很重要的事情,就像数据库服务器一样,每天都有数据库服务器,主要是为了保存各种stream媒体以及所有用户的networking访问文件。 我最可怕的噩梦是发现由于太阳落在电容器中的一些混乱理论α粒子,在我的硬盘/元数据/主板/软件/任何使整个arrays无法恢复的错误。 DOOM&H8! 因为我将会stream式传输数据,读取速度优点值得赞赏(但是次要的) 最后,我可能想要添加驱动器,使用LVM将RAID1池对,这很容易。 RAID6或RAID10arrays必须从头开始重build空白驱动器? 如果这是相关的,我将我的8个硬盘插入华擎Z77 Extreme4主板上的8个板载SATA插槽,其中4个是SATA2,4个是SATA3。 操作系统位于挂接到PCIe SATA控制器的SSD上。 8GB的RAM。 见#1 – 我的首要任务是保护数据。 我已经读过RAID6实际上风险较小,因为任何2个磁盘可能会失败,而不是每个镜像对只有一个,而RAID6的主要缺点是写入速度,这是我不关心的。 我已经接受了一半的驱动器丢失镜像,所以我不想听起来贪婪,即使考虑到RAID6,但如果它实际上更安全,更快的读取,并让我保持12 GB而不是8,也许这将是愚蠢的不要。 或者,也许我错过了一个更大的图片 我想我要求的是在8-12驱动器arrays中的缺点,或者哪一个最适合数据保护,读取速度较慢。 LVM(4x2tb)+独立磁盘的夜间cronjob备份 LVM(4xRAID1) (RAID10) (RAID6) 谢谢你的帮助!

KVM guest不会从硬盘映像启动,而会从光盘镜像启动

我正在使用KVM在Debian不稳定的主机上托pipeDebian不稳定的guest虚拟机。 强调“不稳定的”:-)直到最近(直到最近一轮的主机和来宾的Debian软件包更新),这工作正常。 现在,Linux guest虚拟机将从CD-ROM映像启动,但不会从存储在LVM2 LV中的硬盘映像启动。 存储在单独的LVM2 LV中的Microsoft Windows guest虚拟机在此主机上的KVM下继续完全启动。 当我configurationLinux guest虚拟机从设备“hd”(即,LVM2 LV磁盘映像)引导并使用virt-manager查看guest虚拟机的控制台时,我看到: Booting from Hard Disk… Boot failed: not a bootable disk 磁盘映像似乎有一个有效的MBR: sudo cat /dev/vg1/myguest|file – /dev/stdin: x86 boot sector 我还可以挂载LVM2磁盘映像中包含的根文件系统(下面的偏移量已经通过fdisk输出计算 – 磁盘映像包含两个分区): sudo mount -o offset=1998743040 /dev/vg1/myguest /mnt ; echo $? ; ls /mnt/boot ; sudo umount /mnt 0 config-3.8.0 config-3.9.0 grub System.map-3.8.0 […]

LVM /设备映射器映射错误的设备

我在由mdadm创build的raid1上运行LVM设置。 md2基于sda6(major:minor 8:6)和sdb6(8:22)。 md2是分区9:2。 md2顶部的VG有4个LV,var,home,usr,tmp。 首先问题:引导时,似乎设备映射程序为映射采取了错误的分区! 开机后立即信息就像 ~# dmsetup table systemlvm-home: 0 4194304 linear 8:22 384 systemlvm-home: 4194304 16777216 linear 8:22 69206400 systemlvm-home: 20971520 8388608 linear 8:22 119538048 systemlvm-home: 29360128 6291456 linear 8:22 243270016 systemlvm-tmp: 0 2097152 linear 8:22 41943424 systemlvm-usr: 0 10485760 linear 8:22 20971904 systemlvm-var: 0 10485760 linear 8:22 10486144 systemlvm-var: 10485760 6291456 […]

Linux:encryption物理LVM卷并不意味着encryption其逻辑子卷?

一年前我在笔记本上安装了OpenSuse。 我在LVM分区内创build了除/boot之外的所有分区。 我在安装过程中为它启用了encryption。 系统稍后会在每次启动时向我提供密码。 一切似乎都很好 但有一天,我想取消启动过程,并用SysRq REISUB 。 进入这个组合时,系统突然继续启动,没有input任何密码。 我没有/home ,也没有swap ,但/被挂载! 我多次检查,这是在一个“encryption”物理LVM卷。 后来我发现OpenSuse根本无法encryption。 有一个选项可以为每个逻辑卷启用encryption,而且实际上它会失败。 后来我尝试了Fedora。 分区过程中的选项也是以相同的方式误导。 我可以启用物理卷和每个逻辑子卷的“encryption”。 除了Fedora实际上允许encryption/ 。 问题:当物理LVM卷不暗示(逻辑)子卷的(真实)encryption时,为物理LVM卷设置“encryption”有什么意义? 这整个概念我有什么不对吗?

LVMinput/输出错误

当我运行lvdisplay时,显示以下错误… /usr/sbin/lvdisplay /dev/sdb: read failed after 0 of 2048 at 0: Input/output error /dev/sdb1: read failed after 0 of 2048 at 0: Input/output error /dev/sdb2: read failed after 0 of 2048 at 0: Input/output error /dev/sdb3: read failed after 0 of 2048 at 0: Input/output error — Logical volume — … 我仍然可以看到我的卷,每当有错误显示,有什么想法?

程度大小的select?

存储系统:HP Smart Array P410i。 操作系统:RHEL 5.5 x86_64。 我创build了一个由12个磁盘组成的RAID 1 + 0逻辑驱动器,分区大小为128KB。 有了这个逻辑驱动器,我即将创build一个新的LVM卷组。 现在,我应该select什么样的物理实验?

高负荷和OOM杀手在domUs而pvmove

情况 xen 4.0.1 dom0(debian squeeze) 所有以LV作为磁盘: disk = [ 'phy:/dev/vg-00/domu-swap,xvda1,w', 'phy:/dev/vg-00/domu-disk,xvda2,w' ] ) 一个VG( vg-00 )和2个PV 目标 将所有LV从一个PV移到另一个PV(pvmove)并移除“空”PV(vgreduce) 不打扰任何跑步机器(domU od Dom0) 问题) 当我开始pmove (我甚至试图ionice -c3它)我domUs得到非常高的负载,甚至卡住了。 我认为这发生在pvmove将domU LV从一个PV延伸到另一个时。 我也看到domU真的吓坏了OOM杀手。 长话短说:我不得不中断程序( pvmove –abort ),因为我的domU开始无法使用,主要的服务器组件被杀死,甚至完全死亡/冻结。 问题 我知道更高的IO负载,而过渡,可以应付这一点。 但是即使当IO负载很高时,domU任务内部也会被阻塞。 为什么ionice在这里工作? 如果我明白这是正确的,所有IO由dom0(由blkback驱动程序)完成,所以dom0应该看到每个dom(0 | U)完成的所有IO,并且应该能够为我的renice进程计划IO – 我的假设是错误的这里? 为什么我的domU开启了OOM杀手? 这个过程如何影响domU的记忆? 顺便说一句:当domU发疯的时候,我的dom0工作正常。 高IO,但这是显而易见的。 有没有办法可以去掉一个PV而没有上面的这个? closures/暂停一个domU,然后从这台机器只转发LV,会更好吗? 预先感谢您的每一个input – 我甚至会很高兴得到一些“debugging的想法”!

用Xen分区文件系统的正确方法

我来自VMware环境,想要玩Xen。 我有一个2 x 500G SATA驱动器的服务器(没有硬件RAID可用,必须使用基于软件的RAID1)。 除了交换,我的分区都是RAID1。 我为我的虚拟机留下了一些超过400G,我想使用LVM的磁盘映像。 对于domU的交换,我应该从400G分配还是应该从dom0分区中分配? 我问,因为我看过很多configuration选项,显示或。

在LVM上使用外部日志configuration多个XFS文件系统

我正在configuration一个具有多个文件系统的NFS服务器,供不同用户组使用。 我们最近安装的其他类似系统在RAID 6上使用了逻辑卷上的XFS文件系统,这样我们就可以留下一些空闲空间,并根据需要添加或扩展文件系统。 为了提高写入性能,我正在考虑使用外部日志用于XFS文件系统,这次是在安装操作系统的独立RAID 1对上。 据推测这意味着我需要为每个文件系统一个额外的分区。 做到这一点的显而易见的方法是把这些也放在逻辑卷上。 有没有理由不这样做?