如果我的根设备是LVM逻辑卷,那么如何通过Grub CLI找出path,而无需访问原始的grub.conf文件? 这是用于kernel命令的root和rd_LVM_LV参数。 例如: kernel /vmlinuz-2.6.34.8-68.fc13.i686.PAE ro root=/dev/mapper/vg_sever1-root rd_LVM_LV=vg_server1/root 通常情况下,您可以在CLI中选项卡以获取文件位置,可用硬盘等提示信息。但是,我不确定如何获取卷组的名称或根逻辑卷。
免责声明:这是我第一次使用lvm。 在RTFM上,看起来LVM快照自动存储在与原始逻辑卷相同的目录中。 在我的情况下,这将意味着/dev目录。 这不是很好,因为我没有足够的磁盘空间来存储大快照。 所以当我运行一个像lvcreate –size 1G –snapshot –name snapshot /dev/lvmData/usr这样的命令时,我需要在/ dev中额外增加1G的空间空间吗? 有没有办法指定一个不同的目录来存储我的快照?
我们正在将我们的(直接连接的)存储系统迁移到基于iSCSI的整合存储,我们提出了一个有趣的问题:我们应该在哪里放置LVM处理? 让我解释。 我们正在configuration一个基于三级方法的存储系统,即存储,文件pipe理器,应用服务器。 这基本上将存储设备与文件系统分开。 该存储基于(除其他外)运行CentOS的DELL系统,为归档器提供iSCSI设备。 文件pipe理器通过向应用程序服务器提供NFS / CIFS / etc文件系统来“消费”iSCSI存储。 存储设备还可以为虚拟主机(KVM)提供iSCSI设备,直接以虚拟机的forms将其用于其虚拟机。 这是问题吗? 我们在哪里放置LVM处理? 换句话说,我们应该划分(即在存储服务器上还是在Filer / VMhosts上创build带有LVM的PP / VG / LV? 我们最初的方法是尽可能多地将存储(LVM和文件系统)的处理/转换推迟到上层主机(文件pipe理器/应用程序服务器),因为这些存储服务器中只有less数存储服务器。 这样我们更有效地分配处理。 我们是对的吗? 我们是否做错了什么? 谢谢。
以下是df -h命令的部分输出。 注意/ var被设置为自己的文件系统,但已经达到了2GB大小的100%。 如何增加/ dev / mapper / rootVG-var文件系统的大小? 物理磁盘本身有更多的可用空间。 这是Redhat 5.8版。 Filesystem Size Used Avail Use% Mounted on /dev/mapper/rootVG-slash 2.0G 977M 876M 53% / /dev/mapper/rootVG-home 9.7G 2.7G 6.6G 29% /home /dev/mapper/rootVG-opt 9.7G 1.2G 8.1G 13% /opt /dev/mapper/rootVG-tmp 3.4G 53M 3.2G 2% /tmp /dev/mapper/rootVG-var 2.0G 1.9G 0 100% /var
我知道一个工具kpartx可以用来configuration系统上的多path。 但是CONFIG_DM_MULTIPATH内核模块是做什么的? 我的系统没有编译这个模块,看来kpartx工具工作得很好。 看来他们没有关系,对吗?
我有2个分区的SD卡。 第二个分区sda2(LVM)的大小是1.4TB,想缩小到50GB。 我减less逻辑卷为50GB,但是当我运行vgdisplay它显示免费PE /大小1.33 TiB。 我想要这个空闲空间有sda而不是sda2来创build我想不被格式化的sda3分区(谁熟悉Oracle和asm,我会澄清我想sda3标记为asm磁盘) 所以我想从sda2拿1.33 TiB给sda,怎么样? 请帮忙。
我不小心删除了一个我想恢复的文件。 该分区是用dm-crypt / LUKSencryption的LVM分区内的ext4分区。 encryption的LUKS分区是:/ dev / sda2 其中包含一个物理卷,具有单个卷组,映射到:/ dev / mapper / system 而逻辑卷,ext4分区被映射到:/ dev / mapper / system-home 一个# testdisk /dev/mapper/system-home将会注意到它是一个ext4分区,但是告诉我当我尝试列出文件时,分区似乎已经损坏。 如果我# testdisk /dev/mapper/system会检测所有的分区,但是如果我尝试列出他们的文件也会发生同样的情况。 我做错了什么或者是一个已知的错误? 我已经搜查,但没有发现任何线索。
我使用LVM2运行多磁盘服务器。 几个大型磁盘用作一个卷组的LVM2物理卷,包含一个用ext4格式化的逻辑卷。 没有什么奇特的,只是你的标准线性设置。 最近还有一个非常小的磁盘作为物理卷添加到该卷组中,并将其中的逻辑卷和ext4文件系统扩展到该磁盘上。 这个lv用来存储使用rsync的增量备份,只有大约30%的空间,很less有文件被删除,只有增量写入。 现在,我添加到预先存在的音量组中的这个新硬盘已经意外死亡,而音量组因为缺less一个物理音量而不会popup。 命运就是这样,这就是“在主服务器发生灾难性故障的情况下” – 事件发生了,老板不开心,所以这个还得工作… 根据这个(第3部分): http : //www.novell.com/coolsolutions/appnote/19386.html ,可以通过创build一个具有相同元数据的新的光盘来启动LVM,该卷可访问,但当然留下文件系统的巨大漏洞。 我还没有尝试过,因为它涉及修复(写入)文件系统,如果失败的话,它将消除尝试其他事情的可能性。 现在我的问题是: 这个设置如何为新数据实际分配磁盘空间? 它是否从PVs的开始到结束按线性分配,按照它们被添加到vg的顺序? 为了提高性能/平衡负荷,它有条纹吗? 由于这个有缺陷的磁盘只是在以后添加到现有的lvm2 vg和lv中,包含一个半空的ext4,那么从来没有任何数据写入缺陷磁盘的可能性有多大? 换句话说,即使没有有缺陷的磁盘,只需按原样启动卷组,也能恢复所有数据的机会是多less? 当我发送有缺陷的磁盘进行维修时,我是否要花费1500美元来恢复250GB的空间? 有没有办法检查没有安装文件系统并打开文件,希望他们包含零以外的东西? (比较ext4中使用的数据块的地址来寻址缺失的pv的范围,类似的,最好容易自动化) 我知道在修复ext4之前,将整个lv复制到一个映像文件中可能是一个好主意,但是由于这个lv非常大,而且我在多个系统上遭遇了主要的文件系统故障,所以这可能是一种奢侈没有… 有什么build议么?
您可以设置一台机器,将不同的驱动器格式化为LVM卷或传统分区,并将两者混合匹配? 例如,将LVM卷安装为/和/home和swap ,然后将传统的ext3主分区安装为/home/user1或/var ? 拥有混合系统的任何优点或缺点是否可行?
我有一个完整的磁盘映像(dd if = / dev / sda of = foo.bin),它包含多个分区和LVM逻辑卷,其中有ext4文件系统。 如何在这个磁盘映像上安装一个文件系统? 从图像制作完成后,我得到了fdisk -l的输出。 我假设我不得不使用回送设备,但我不知道如何做到这一点,当我把整个设备作为一个图像,而不是一个文件系统。 希望你能帮忙。 操作系统是Linux。