在进行RHEL5及更高版本的默认安装时(至less – 不要回想起是否已经做了更长的时间),Anaconda会将您的驱动器设置为逻辑卷组 – 即使只有一个驱动器。 在单个驱动器上使用LVM背后的目的/推理是什么? 我知道你为什么想要在RAID驱动器上或跨多个不同大小的磁盘,但是如果只有一个磁盘,则不行。 是否仅仅是为了提供机会在路上增加额外的空间,如果你碰巧改变了一个给定的机器应该分配给它多less空间?
我必须将非常大的LVM卷从服务器A复制到服务器B.以下是服务器A和服务器B的文件系统 服务器A [root@AVDVD-Filer ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg_avdvdfiler-lv_root 16T 14T 1.5T 91% / tmpfs 3.0G 0 3.0G 0% /dev/shm /dev/cciss/c0d0p1 194M 23M 162M 13% /boot /dev/mapper/vg_avdvdfiler-test 2.3T 201M 2.1T 1% /test /dev/sr0 3.3G 3.3G 0 100% /mnt 服务器B [root@localhost ~]# df -h Filesystem Size Used Avail Use% Mounted on […]
我有一个新的专用服务器,我想纯粹用于备份目的。 [root@dedi ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda3 20G 942M 18G 6% / tmpfs 7.8G 0 7.8G 0% /dev/shm /dev/sda1 283M 32M 236M 12% /boot /dev/sda2 1.8T 68M 1.7T 1% /data [root@dedi ~]# cat /proc/partitions major minor #blocks name 8 0 1953481816 sda 8 1 307200 sda1 8 2 1932167168 […]
我打算使用LVM作为KVM,当我尝试创buildVG时,它失败了,那么如何创build我的VG和LV呢? 谢谢 [root@server ~]# vgcreate virtual-machines /dev/sda Device /dev/sda not found (or ignored by filtering). Unable to add physical volume '/dev/sda' to volume group 'virtual-machines'. [root@server ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda3 2.0T 929G 976G 49% / tmpfs 3.9G 124K 3.9G 1% /dev/shm /dev/sda1 194M 57M 128M 31% /boot [root@server […]
我试图自动化现有的Ubuntu安装的重新安装过程。 分区布局: md0(raid1,/ dev / sda1#/ dev / sdb1) – swap(2G) md1(raid1,/ dev / sda2#/ dev / sdb2) – /(20G) md2(raid1,/ dev / sda3#/ dev / sdb3) – PV(剩余空间) 我想要完成的是: 如果存在,重用现有的RAID 最重要的是将数据保留在现有的PV上。 我能够通过在lvm.conf中设置一个filter来排除所有块设备,因此禁用了ergo lvm支持。 问题是,安装后,我不得不重新创build/ dev / md / 2,希望数据是完整的。 预configuration部分是: di partman/early_command string sed 's/filter\ =\ \[\ "a\/.*\/\"\ \]/filter\ =\ \[\ "r\/.*\/\"\ \]/g' -i […]
第一次使用serverfault,请原谅任何违反礼仪。 我在服务器的本地存储中创build了多个LVM2逻辑卷,并且希望其中一个设备节点(不是文件系统或挂载点)由root:root以外的用户/组拥有。 这几乎是默认的RHEL5服务器。 我知道设备节点是在LVM扫描pv / vg / lvs磁盘后在引导时dynamic创build的。 我不太确定udev,mapper和lvm如何相互作用来创build这些节点,而configuration文件规范对于没有太多经验的人来说有点神秘。 会有更多的lvs需要遵循,也需要备用权限,但是我理想的情况是保持卷组中的其他lvs为root:root,并且只更改特定的lvs。 任何人都可以帮我把这个弄出来吗? 我一直在Google上search几个小时。 在此先感谢Tony 更新: 我通过以下完成了这一点。 这可能是一个迂回的做事方式,但这只是一个临时的环境(有名的遗言!)。 哦,我也可能想删除打印到/ tmp / foo的行。 [root@xxxxxxx rules.d]# **cat /etc/udev/rules.d/11-lvm.rules** ACTION=="add|change", KERNEL=="dm-*", PROGRAM="/bin/sh -c /etc/udev/scripts/oracle_perms.sh" [root@xxxxxxx rules.d]# **cat /etc/udev/scripts/oracle_perms.sh** #!/bin/bash echo "DEVPATH=$DEVPATH" >> /tmp/foo MAJMIN=`cat /sys${DEVPATH}/dev` echo "MAJMIN=$MAJMIN" >> /tmp/foo MAJ=`echo ${MAJMIN} | awk -F: '{ print $1 }'` MIN=`echo ${MAJMIN} […]
好吧,我希望这个问题是独一无二的,不能被认为是另外一个“LVM和RAID有什么区别? 的问题。 开始… 我正在build立一个有一个驱动器笼子的linux服务器,它可以让我热插拔6个驱动器。 我后来的特点是: 驱动器故障的容差(所以… RAID,基本上) 在线更换发生故障的驱动器 驱动器空间的高利用率(例如,如果我有6个1TB驱动器,5TB的一个奇偶校验驱动器比6个镜子上的1TB更好) 灵活分配整个驱动器空间的卷(所以… LVM) 下面是曲线球:我也希望尽可能在服务器上尽可能地将更大的驱动器replace成更大的驱动器。 如果我只想通过更换更小的驱动器来增加空间,我可以只使用lvreduce的LVM(当然,我使用Reiser或ext [2-4]等可缩小的FS,目前的FS可以通过我想要的驱动器的数量来缩小)。 但是这并没有给我任何的冗余。 我能想到的第一个解决scheme是获得冗余和replace驱动器的能力,即将驱动器用作镜像对。 一对是md0,下一对是md1等。然后,我将这些添加到一个单一的卷组。 当我想增加空间的时候,我会将一个md *设备从卷组中减less,拉出两个驱动器,添加两个更大的磁盘,创build一个新的md镜像,并将它们添加到卷组中,展开FS,我完成了。 但是,这将我的空间效率降低到50%,因为每个物理驱动器都有自己的镜像。 我只得到3TB …这将使我需要尽快更换更大的驱动器。 当然,而不是镜像对,我可以将它们作为3驱动器的RAID5套件。 每3个驱动器会给我2TB。 所以我总共得到了4TB, 但现在我遇到了一个问题,为了从卷组中取出一个md设备,需要占用更多的空间(拉一个需要2TB,而不是1TB)。 这意味着我需要更多的松散空间,否则我不能像这样交换驱动器。 所以,这是我卡住的地方。 我所知道的获得异构驱动器大小和在线驱动器更换的冗余的唯一方法是需要在更高的空间效率和更高的松弛空间要求之间作出折衷决定,以便将驱动器(或一组驱动器)。 有没有一个聪明的伎俩,我错过了?
这可能是一个天真的问题,因为我是新手,我无法find关于mdadm + zfs的任何结果,但经过一些testing,似乎它可能工作: 用例是一个带有RAID6的服务器,用于某些备份的数据。 我认为我可以很好地服务于任何ZFS或RAID6。 平台是Linux。 性能是次要的 。 所以我正在考虑的两个设置是: 一个RAID6arrays加规则的LVM和ext4 一个RAID6arrays加上ZFS(没有冗余)。 这是第二个选项,我没有看到任何讨论。 为什么ZFS + RAID6? 这主要是因为ZFS无法使用新磁盘来增长raidz2。 我知道,你可以更换更大的磁盘,但不能添加另一个磁盘。 您可以使用mdadm作为冗余层来实现2磁盘冗余和ZFS磁盘增长。 除了这个要点(否则我可以直接去raidz2下没有RAID),这些都是我看到每个选项的利弊: ZFS有没有预先分配空间的快照。 LVM需要预分配(可能不再是真实的)。 ZFS有校验(对此非常感兴趣)和压缩(很好的奖金)。 LVM在线文件系统增长(ZFS可以通过export / mdadm –grow / import离线执行)。 LVM具有encryptionfunction(ZFS-on-Linux没有)。 这是我看到的这个组合的唯一主要内容。 我想我可以去RAID6 + LVM + ZFS …似乎太重了,还是不行? 所以,以一个适当的问题来结束: 1)是否有什么内在的阻碍或排除RAID6 + ZFS? 任何人都有这样的设置的经验? 2)校验和压缩有没有可能使ZFS不必要(保持文件系统增长的可能性)? 因为RAID6 + LVM组合似乎是被认可的,经过testing的方式。
在我们的Debian服务器上对LVM进行压力testing的时候,我遇到了这个问题,内存会占用大量内存,但是没有任何进程需要内存。 请参阅http://i.imgur.com/cLn5ZHS.png ,并参阅https://serverfault.com/a/449102/125894了解htop中使用的颜色。 为什么发生这种情况? 有没有什么办法可以看到什么进程正在使用内存? Htopconfiguration为不隐藏任何进程,那么htop缺失的是什么? 在这个特殊情况下,我可以肯定地说,这是由lvmcreate,lvmremove或dmsetup直接或间接造成的,因为我正在进行压力testing。 请注意,这个问题不是解决LVM问题,而是解释为什么内存不被任何进程所要求。 停止所有LVM命令确实将内存降低到<600MB。 free -m输出: total used free shared buffers cached Mem: 32153 31958 194 0 52 3830 -/+ buffers/cache: 28075 4077 Swap: 975 0 975 顶部,由于它的长度在pastebin的输出: http : //pastebin.com/WchrpF7W
三个磁盘中的一个在我的LVM raid1逻辑卷中closures。 (实际上这是一个糟糕的实验)。 卷是一个纯粹的LVM raid1 (不,不是LVM mirror ),没有任何mdadm / fakeraid。 问题只在重启时才能实现,设备完全没有了。 由于我仍然有两个健康的磁盘,我想将该卷作为双向raid1使用一段时间,稍后再更换坏的磁盘。 但是,我无法从音量中删除丢失的设备。 以下是有关拓扑的基本信息。 卷组为vgQ3 ,逻辑卷为lvRAID1 : #lvm pvs | grep vgQ3 Couldn't find device with uuid vG3BbG-ap9H-iYGg-qfE2-R13Z-rLJI-AJcAv0. /dev/sdb2 vgQ3 lvm2 a– 79.31g 17.91g /dev/sdc2 vgQ3 lvm2 a– 79.31g 17.91g unknown device vgQ3 lvm2 am 79.31g 17.91g # lvm lvs -a -o +devices | grep […]