Articles of lvm

文件系统宁愿先写低LBA?

也许标题混乱,但让我解释一下… 我们的mysql服务器(在xen虚拟机上)有时会在磁盘上生成巨大的tmp文件。 所以我们需要一个大的tmpdir来存储它们。 我们决定将tmpdir安装到SSD以获得更好的性能。 但是,正如你所知,SSD在某种程度上是昂贵的,而且mysql并不总是生成那么大的tmp文件。 所以如果我们把每一个虚拟机的mysql都设置成一个大的SSD,那就太浪费了。 因此,我们只想给每个tmpdir(例如10G)提供小型SSD(实际上是在xen SSD上备份的虚拟磁盘)。 但正如前面所说,有时候mysql会生成超过10G的巨大tmp文件。 如果发生这种情况,那么mysql查询将失败。 所以我们要这样的剂量: 将一个ssd和hdd合并成一个驱动器(这样它可以挂载到mysql的tmpdir)。 当ssd用完所有空间,然后使用硬盘。 然后我认为dmseupt或LVM也许可以做到这一点。 所以我做了一个简单的testing: 1 SSD 0.5G | 1 HDD 10G | 一个逻辑卷在两个驱动器之上 | 上面逻辑卷上的ext4文件系统 并使用dd工具生成一些大小为0.3G的文件。然后我可以看到SSD使用增长了0.3G,硬盘没有改变。 一切都很好,直到现在! 但是,当我删除该文件,然后创build,然后删除,…这样做。 原来硬盘空间的使用量不断增加! 所以我客人ext4剂量不倾向于覆盖删除的文件? 我们可以禁用此function还是有另一个文件系统首选写低LBA? 谢谢阅读!

我可以在lvextend之后减less内部的ext4分区吗?

在一个僵化的尝试将我的根分区从一个磁盘移动到另一个我做了以下几点: 添加新的磁盘 用parted分区(第3部分现在几乎完全填满了磁盘) 初始化一个物理卷 $ pvcreate /dev/sdb3 Physical volume "/dev/sdb3" successfully created 扩展卷组以包含这个新的物理磁盘 $ vgextend myvg /dev/sdb3 Volume group "myvg" successfully extended 扩展了逻辑卷(我认为这是我把它弄明白的地方:我想我应该把这些东西放到那个组里的新版本 – 有人可以证实吗?) $ lvextend /dev/mapper/myvg-root /dev/sdb3 现在我想撤消这个虚拟主机,然后继续把原来的物理卷的内容移动到新的物理卷上。 我可以减less逻辑卷(我还没有触及位于/ dev / mapper / myvg-root中的类似resizefs的ext4分区),而不用担心损坏ext4文件系统吗? 如果是这样,我怎么告诉它减less恰到好处的量? $ lvreduce –by-exactly-the-amount-occupied-by-PV /ev/sdb3 /dev/mapper/myvg-root

从覆盖的LVM还原数据

我昨天收集的所有数据(8TB)都丢失了,因为我在重新装入LVM的过程中犯了一些严重的错误。 我使用额外的4个硬盘来运行XenServer5.6安装以进行数据存储。 这4个硬盘的LVM被用来存储我的所有数据。 昨天,我重新安装了XenServer,并希望安装我的旧硬盘并添加LVM。 我跑 xe sr-create […] 对于所有磁盘(/ dev / sdb .. / dev / sde),但这是完全错误的。 此命令将删除磁盘上的旧LVM,并在没有分区的每个磁盘上创build一个新的空lvm。 不,我有4空硬盘 是否有可能从丢失的LVM卷中恢复一些数据? 我不知道该怎么做,因为我删除了关于旧LVM的所有信息。 有没有办法直接访问旧lvm的文件?

扩展Ubuntu LV – 增加了新的硬盘

我已经安装了一个新的硬盘驱动器到我的电脑,并遵循本指南来扩展逻辑卷,但我几乎没有获得任何空间? http://support.cloud.eduserv.org.uk/entries/21157521-extending-an-ubuntu-vm-s-disk-space-using-lvm 我是这样开始的 Filesystem Size Used Avail Use% Mounted on /dev/mapper/ubuntu-root 292G 107G 171G 39% / udev 961M 4.0K 961M 1% /dev tmpfs 388M 492K 388M 1% /run none 5.0M 0 5.0M 0% /run/lock none 970M 0 970M 0% /run/shm none 100M 0 100M 0% /run/user /dev/sda1 228M 53M 164M 25% /boot 我安装了一个250GB的硬盘,并按照上述指南,现在我有: Filesystem Size […]

将guest虚拟机从KVM迁移到VirtualBox

在我们构build新的虚拟化环境的同时,我正在将一些机器从KVM迁移到VirtualBox。 现在的问题是,磁盘位于LVM分区,我必须将它们转换为VirtualBox可识别的格式。 我在另一个方向find了很多文档,但是没有。 qemu-img convert -c /dev/Volume01/Disk -O qcow2 Disk.qcow2 该工具似乎做的工作,但磁盘将无法正常工作。 在VirtualBox上,我得到FATAL: No bootable medium found! System halted. FATAL: No bootable medium found! System halted. 。 还有其他的select吗?

Linux的VMware数据存储大于2TB使用lvm?

我试图想到在linux虚拟机上创build一个逻辑卷的最好方法是超过2TB。 我需要制作一个8TB的逻辑卷,并且可以在我的SAN上访问这个数量。 我知道每个VMDK文件有2TB的限制,但是想知道实现这个最好的方法是什么? 我知道我可以在更多的虚拟环境中安装所有的驱动器,但是我需要将它作为一个数据存储在Linux中显示。 有没有使用LVM将多个VMDK文件组合成一个数据存储的方法? 提前致谢

由libvirtpipe理的访客系统在安装成功后不会启动

主机系统 – Ubuntu 12.04。 虚拟化 – KVM。 磁盘 – LVM。 来宾系统安装成功。 但重启后: Booting from Hard Disk… Boot failed: could not read the boot disk Booting from Floppy… Boot failed: could not read the boot disk No bootable device. 使用SystemRescueCD加载系统 – find并读取所有磁盘。 /etc/libvirt/qemu/chef0.xml: <domain type='kvm'> <name>chef0</name> <uuid>f1dcd38a-f9cb-f384-f0f2-3037e1b957f7</uuid> <memory>786432</memory> <currentMemory>786432</currentMemory> <vcpu>1</vcpu> <os> <type arch='x86_64' machine='pc-1.0'>hvm</type> </os> <features> […]

Fusion ioDrive2上的LVM与Oracle DB 11gR2的Flash Cache有什么样的性能开销?

这有点罗嗦,所以请忍受我。 🙂 我们有一个由3个Oracle 11gR2服务器组成的RAC集群,并购买了这些服务器的FusionIO ioDrive2 PCIx卡作为OracleDB的Flash Cache。 这些服务器运行我们的生产数据库实例和更小的开发数据库。 我们希望将这两个实例configuration为使用这些设备作为它们的Flash Cache,dev db具有更小的尺寸。 我的理解是,只有1个设备可以configuration为Flash Cache的目的地。 同时,这个ioDrive2设备支持所谓的“虚拟控制器”。 它基本上把这个设备分成2个IOPs(总的组合带宽保持不变)。 所以把整个图像放在一起:我需要2个分区,每个分区实例一个。 如果我使用“虚拟控制器”,我将有2个同样大小的驱动器。 我正在考虑的是使用LVM将2个虚拟控制器合并为1,然后为每个分区合并一个卷。 LVM会带来多less性能和pipe理开销? 有没有什么警告我应该知道这个设置? 有没有更好的方法来处理这种情况?

如何从现有的空间创build新的逻辑卷

我对逻辑卷的世界很陌生。 我安装了一个Linux(CentOS),安装程序创build了一个50 GB的根逻辑卷(挂载在/)和一个475 GB的家庭逻辑卷(挂载在/ home下)。 还有32 GB的交换。 硬盘是一个硬件RAID – 虚拟磁盘(我不知道这是否相关) 现在事实certificate,我需要/ opt下的大空间,但是我的大部分空闲空间都在/ home下。 我想解决scheme必须是创build一个新的select卷(空间,200GB应该从家庭卷),并将其挂载/ opt。 这应该很容易,但是我发现的所有教程/问题都是从底层开始设置LVM(我不需要)…那么从现有的卷中删除给定空间的命令是什么?给它一个新的音量? 先谢谢你。

ext3转换为ext4仍然被挂载为ext3

目前我用我的Debian系统(主要是testing)有一些有趣的问题。 我以前在lvm上有一个根分区,格式为ext3。 我现在启动一个实时系统,并将ext3转换为ext4(通过tune2fs …),也做了一个fsck.ext4。 在现场系统中,我可以挂载分区为ext4。 然后我把/ etc / fstab中的条目从ext3更改为ext4,然后重新启动我的Debian。 问题是这个分区(即使它在/ etc / fstab中声明为ext4)似乎仍然被挂载为ext3 – 至lessmount是这么说的。 当我尝试确定文件系统types时,我得到不一致的结果: fsck -N报告ext4: sudo fsck -N /dev/mapper/hed-root fsck from util-linux 2.20.1 [/sbin/fsck.ext4 (1) — /] fsck.ext4 /dev/mapper/hed-root 但blkid说ext3 sudo blkid -o value -s TYPE /dev/mapper/hed-root ext3 正如我所说的文件系统驻留在lvm卷。 我什么也没有改变。 我能做些什么来解决这个问题? 非常感谢!