Articles of lvm

df正在报告LVM中的错误信息

我在/ var / log(100%)上有完整的磁盘使用情况,并删除了一些文件以增加空间。 这是和ext4分区挂载默认选项。 但是,当我df -h我得到: Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg00-log 945M 885M 0 100% /var/log 为什么报告885M是945M的100%?

如何检查lvconvert的进度 – replace

我正在用LVMreplaceconfiguration了RAID5的less量磁盘。 用来replace的命令是 lvconvert –replace /dev/oldpv vgname/lvname /dev/newpv 这是在后台启动过程。 参数-i #不起作用,要么-v 我在lvs -o +<fields> (和pvs,vgs)上尝试了很多选项,没有人返回这个进度。 我想检查进展,因为是大磁盘和几个LV。 这需要几分钟的时间,我不想在当前进程仍在运行的情况下启动下一个LV。 现在我正在使用dstats / iostats命令监视I / O,但这是非常难看的方法来检查这…

如何获得lvm快照的创builddate?

有什么方法可以获取创buildlvm快照的date吗? lvs –version LVM version: 2.02.66(2) (2010-05-20) lvdisplay和lvs都不提供这些信息。 通过这两个命令的手册页来看,没有任何选项可以给它。 对于这个问题,是否有办法获得任何逻辑卷的创builddate? 以下是我在运行lvdisplay时看到的内容: ~# id; lvdisplay vol0/m0000700.20150108 uid=0(root) gid=0(root) groups=0(root) — Logical volume — LV Name /dev/vol0/m0000700.20150108 VG Name vol0 LV UUID ShKkjV-tbL4-SjKv-dfA4-7fft-2Pl1-UKThSs LV Write Access read/write LV snapshot status active destination for /dev/vol0/m0000700 LV Status available # open 0 LV Size 109.05 GiB Current LE 27918 […]

可用空间不足:需要X个盘区,但只有Y可用

我正在尝试在Vmware Workstation 12 Pro CentOS VM中扩展LVM。 以下是我正在关注的步骤,以及我停止的地方,因为不知道如何从这里开始: 使用fdisk命令创build主分区 使用fdisk -l获取分区表信息: # fdisk -l Disk /dev/sda: 85.9 GB, 85899345920 bytes 255 heads, 63 sectors/track, 10443 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0001d929 Device […]

无法删除LVM thinpool – 无法停用tdata,tmeta

我在某种程度上搞砸了Ubuntu 14.04上一些精简configuration的lvm卷,现在我想通过删除其中包含所有卷和数据的thinpool来重新开始。 不幸的是,这失败了,我找不到解决办法。 逻辑卷如下所示: user@server1:~$ sudo lvs dm_report_object: report function failed for field data_percent LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert project2 vg0 Vwi-i-tz- 22.00g mythinpool project1 vg0 Vwi—tz- 20.00g mythinpool project3 vg0 Vwi—tz- 21.00g mythinpool home vg0 -wi-ao— 140.00g mythinpool vg0 twi-i-tz- 78.82g 52.15 root vg0 -wi-ao— 10.00g swap vg0 […]

合并逻辑卷组

我想增加根LVM卷空间。 是否有可能将LogVol01合并到LogVol00? 我的LVM设置如下所示: [root@server~]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert LogVol00 VolGroup00 -wi-ao 34.84G LogVol01 VolGroup00 -wi-ao 33.38G [root@server~]# pvs PV VG Fmt Attr PSize PFree /dev/cciss/c0d0p2 VolGroup00 lvm2 a- 68.22G 0 [root@server~]# vgs VG #PV #LV #SN Attr VSize VFree VolGroup00 1 2 0 wz–n- 68.22G 0 [root@server~]# df […]

磁盘速度非常慢Centos 6

安装程序如下所示: 惠普Proliant DL380 G7 配有硬件RAID 1 + 0的6 x 3TB SATA硬盘(监控级),板载SATA控制器。 型号是希捷SV35 192GB内存 VMware ESXi 6.0 一个运行Centos 6.7的VM客户机(内核2.6.32-573) 数据存储由ESXi安装后的所有剩余磁盘空间组成(小于8tb) 1个系统分区的VMDK文件,100GB 1个VMDK文件的数据分区在7.7TB左右 在来宾CentOS上,系统分区是LVM ext4 数据分区是具有单个PV,LV和VG ext4的LVM 现在我遇到的问题是磁盘上的数据传输速度非常慢。 试图从LVM上的一个地方复制一个半大文件(10-30GB)到LVM上的另一个地方,传输速率大约为240MB / s,这是我所期望的速度,但只是几秒钟后(通常为30日),下降到1-4 MB / s,查看iotop告诉我一个进程开始运行,称为flush-253:2,这似乎会减慢一切。 我一直在使用rsync –progress来实时获得传输速度的更好图片,但是我看到与cp操作相同的结果。 当它终于完成,我已经尝试再次执行相同的程序,相同的文件到相同的位置。 在整个传输过程中,rsync的指定传输速度第二次保持稳定在240MB / s左右,但是当rsync指示文件传输完成时,只要完成第一个复制过程,就会在该状态下挂起。 我可以看到flush-253:2进程对两个进程都很困难。 现在我知道这个设置并不是最佳的,我宁愿为ESXi系统配备一个单独的磁盘,但是我不认为这应该是导致这种极端低速传输的原因。 我search了关于刷新过程的信息,据我所知,它基本上将内存中的数据写入到实际的磁盘上,但是我还没有发现任何人说他们已经经历了这种低速传输速率。 系统还没有投入生产,而CPU几乎没有运行,拷贝程序运行时有大约100GB的空闲内存可供使用。 有没有人有什么想法尝试? 我在另一个系统上看到了类似的结果,除了完全不同的(稍微小一点的)硬件之外,基本上它们都是以相同的方式设置的。 我还有第三个系统在LVM上运行CentOS 5和ext3,没有像这样的问题。 编辑1:我意识到现在已经记错了,系统分区也是lvm,但仍然是一个单独的数据分区卷 [root@server /]# mount /dev/mapper/vg1-lv_root on / type ext4 […]

libvirt:公开LVM逻辑卷VS libvirt存储池的区别

我开始学习如何用libvirt创build一个好的虚拟化堆栈。 我创build了一个LVM卷组,它公开了一个由Linux RAID构成的设备块。 我的想法是给每个虚拟机一个逻辑卷,但一个人build议我使用存储池,而不是像 <pool type='logical'> <name>VG_foo</name> <uuid>foo</uuid> <capacity unit='bytes'>0</capacity> <allocation unit='bytes'>0</allocation> <available unit='bytes'>0</available> <source> <device path='/dev/md2'/> <name>vg_foo</name> <format type='lvm2'/> </source> <target> <path>/dev/vg_foo</path> <permissions> <mode>0755</mode> <owner>-1</owner> <group>-1</group> </permissions> </target> </pool> 我已经阅读libvirt存储文件,但我不明白的区别

MD,部分从RAID1增长到RAID5,但被中断,磁盘被删除,现在文件系统是FUBAR

我知道我做了一些愚蠢的举动来进入这种情况,请不要提醒我,也不要问为什么: – / 我有这个Synology DS1515 +,在SHR中有2x6TB的驱动器,意思是MD RAID1,顶部有LVM。 在开始RAID1到RAID5转换之后,放弃它并绕过磁盘,我的ext4文件系统是不可卸载的。 是否有可能,系统已经被许多重新启动和删除磁盘所“困惑”,现在将整个磁盘空间视为RAID5卷,尽pipe从RAID1到RAID5的转换只完成了大约10%。 如果是这样,你认为我有机会修复文件系统,如果我添加第三个磁盘,让RAIDarrays重build? 还是只是将其与现在的数据完全相同,即损坏的文件系统重新绑定到逻辑卷上? 我对实际的转换过程如何进行了一点好奇,因为MD和/或LVM必须知道块设备的哪些部分应该被视为RAID5或RAID1,直到整个空间转换为RAID5。 谁更了解这个? 在此先感谢您的帮助:-) 这是我做的。 (到目前为止我的救援尝试,以及下面列出的日志条目) 将新的6TB磁盘热插入NAS。 告诉Synology的用户界面,将磁盘添加到我现有的卷,并将其增加到12TB(使其成为一个3x6TB的RAID5) closuresNAS(关机-P现在)几个你的成长过程中,并删除了新的驱动器。 NAS引导良好,但报告说我的音量降低了。 它仍然报告了一个6TB的文件系统,一切仍然可以访问。 再次热插拔磁盘3,擦去它,并制作了另一个单一的磁盘卷。 closuresNAS,取出磁盘2(这是一个错误!)并通电。 它开始发出哔哔声,并告诉我,我的音量是坠毁的。 再次closuresNAS,重新插入丢失的磁盘2。 但是Synology仍然报告这个数量是坠毁的,并没有提供修复选项。 所以,我的所有数据现在都不可用了! 我开始调查这个问题。 似乎MD正在组装数组,因为它应该: State : clean, degraded Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : […]

centos7 xfs lmv克隆在较小的设备上

我将在一周前重新发布一个在stackoverflow上发布的问题,如果有人发现这个垃圾邮件,我很抱歉,但是我仍然需要帮助来解决这个问题。 我认为这对其他人也有用。 首先,我有一台基于Centos7的服务器,在非兼容硬件上运行,作为公司策略,我只需要支持容错。 我正在碰撞一个显然很简单的事情。 我需要把我的服务器放在RAID控制器的后面,这意味着我需要把我的CentOS 7安装在一台连接到它的设备上(一台3ware控制器9650se-2lp,这台计算机是惠普商务级的DC7600 Convertible Minitower)。 我的烦恼是从采用的文件系统开始的,是一个不能被devise减less的XFS。 我需要减less它,因为控制器看到相同的磁盘看起来更小,因为控制器存储固件。 我的系统是带有LVM卷的CentOS 7的默认安装。 在设备映射器工作了一周之后,我得到了一个名为“centos”的卷组和称为“root”,“home”和“swap”的逻辑卷。 简单。 # pvs PV VG Fmt Attr PSize PFree /dev/sda2 centos lvm2 a– 148,56g 64,00m # vgs VG #PV #LV #SN Attr VSize VFree centos 1 3 0 wz–n- 148,56g 64,00m # lvs LV VG Attr LSize Pool Origin Data% Meta% Move […]