我试图在我的Proxmox上对NFS共享进行备份。 NFS共享位于Ubuntu(14.04)服务器上,2TB硬盘分成2个1TB分区,并带有LVM。 出于某种原因(用Proxmox来看),它说备份文件夹只有976MB的容量和319MB的可用空间,导致我所有的备份失败。 在Ubuntu的盒子上LVM有什么问题? 以下是lvdisplay的内容 — Logical volume — LV Path /dev/is-storage/storage LV Name storage VG Name is-storage LV UUID eTCnzE-DjPt-dky5-tg3Q-BwP4-Dznr-vsr1BU LV Write Access read/write LV Creation host, time san00, 2015-06-27 01:28:08 -0400 LV Status available # open 1 LV Size 1.00 GiB Current LE 256 Segments 1 Allocation inherit Read ahead sectors auto – […]
我们有一台带有2个Fusion-IO SSD的应用服务器放入一个卷组中形成一个卷。 在这个卷内有128个通过内存映射访问的40GB的文件。 在查看iostat时,我们发现工作负载不是均匀分布在两个磁盘上。 差距是25%。 这个问题的可能原因是什么? 我应该如何调查这样的问题? >lsblk NAME MAJ:MIN RM SIZE RO MOUNTPOINT … fioa 253:0 0 2.9T 0 └─instvg-instant (dm-17) 252:17 0 5.8T 0 /instant fiob 253:16 0 2.9T 0 └─instvg-instant (dm-17) 252:17 0 5.8T 0 /instant >iostat -xk -d fioa -d fiob Linux 3.0.101-0.47.52-default (…) 08/10/2015 _x86_64_ Device: rrqm/s wrqm/sr/sw/s rkB/s wkB/s […]
为了使用gluster快照,我试图通过LVM创buildLV,因为需要精简configuration的逻辑卷才能使gluster快照起作用。 创build工作,但设置无法在重新启动。 在这个过程中的某个地方一定有一个错误。 这是我正在做的LV创build: user@node1:~$ sudo lvs [sudo] password for user: LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert root rabbit-vg -wi-ao— 8.86g swap_1 rabbit-vg -wi-ao— 5.86g 显示物理卷: user@node1:~$ sudo pvs PV VG Fmt Attr PSize PFree /dev/sda5 rabbit-vg lvm2 a– 14.76g 48.00m /dev/sde1 lvm2 a– 20.00g 20.00g 创造音量 user@node1:~$ sudo vgcreate […]
在启动的机器上运行fsck会在根文件系统上产生错误。 为了解决这个问题,我从LiveCD启动 – 但LiveCD实例上的fsck根本找不到任何错误。 我也尝试运行相同的二进制引导系统将与 – 相同的结果0错误。 这里发生了什么? 如何解决报告的错误? (见下文) 该机器是一个无头的Ubuntu 14.04,而LiveCD则来自Ubuntu 14.04桌面版。 当我跑步时: fsck -v -n /dev/mapper/lvm-root -f 答复是: fsck from util-linux 2.20.1 e2fsck 1.42.9 (4-Feb-2014) Warning! /dev/mapper/lvm-root is mounted. Warning: skipping journal recovery because doing a read-only filesystem check. Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Pass 3: […]
我无法安装LVM来提取Proxmox虚拟机数据。 任何想法如何我可以挂载它? 数据在两个2TB硬盘中的一个上。 我认为他们是RAID 1 root@rescue:~# mount /dev/sdd /mnt/ mount: block device /dev/sdd is write-protected, mounting read-only NTFS signature is missing. Failed to mount '/dev/sdd': Invalid argument The device '/dev/sdd' doesn't seem to have a valid NTFS. Maybe the wrong device is used? Or the whole disk instead of a partition (eg /dev/sda, not /dev/sda1)? […]
我刚刚读过“如何在Linux中将一个卷组的空间重新分配给另一个卷组?” 如何在Linux中将一个卷组中的空间重新分配给另一个卷组? 但我仍然困惑。 我inheritance了一个由16个磁盘超微机箱,一个3ware 9650 RAID卡和Centos 5构build的linux NASpipe理器.3ware板创build了三个2.73 TB的RAID单元。 自动雕刻到1.5TB,所以Centos可以看到六个物理卷。 这6个PV被安排在2个卷组中,其中一个VG(volgroup1)具有2.15TB的空闲空间。 我需要将这些空闲的2.15TB移动到另一个VG(volgroup2)然后,我需要在逻辑卷“mmedia0”上分配这些2.15TB的ext3分区,而不会中断任何其他LV /文件系统。 相关LVM命令的输出如下。 在此先感谢圭多 [root@lt-nas1 ~]# pvscan PV /dev/sdd1 VG volgroup2 lvm2 [1.50 TB / 0 free] PV /dev/sdf1 VG volgroup2 lvm2 [1.50 TB / 0 free] PV /dev/sdg1 VG volgroup2 lvm2 [1.23 TB / 0 free] PV /dev/sdb1 VG volgroup1 lvm2 [1.50 TB […]
我们正在使用启用了自动延伸的lvm精简池: thin_pool_autoextend_threshold = 80 thin_pool_autoextend_percent = 10 这是我们如何创build池和卷: pvcreate /dev/sdb vgcreate pulp /dev/sdb lvcreate -L 1G -T pulp/pool00 lvcreate -T pulp/pool00 -n srv -V 100G –wipesignatures y lvm2-lvmetad服务已启用,正在启动。 它在需要时增加了卷空间和元数据,对我们来说几乎是完美的。 但是,有时候会增加卷的数量,但卷组中没有更多空间可用。 此时所有的卷都从系统中卸载。 我们宁愿让它们只读而不是消失。 这可能吗? 我找不到任何有用的谷歌。
我已经在里面设置了3个精简configuration的LVM卷。 在增加了我遇到的严重问题后,现在我想删除这个thinpool以便从头开始。 不幸的是,系统(Ubuntu 14.04.03)不让我这样做,由于mdata和tdata的问题。 该设备似乎也是积极的。 然后我从USB重新启动到CentOS7 live系统。 这使得可以删除其中一个卷。 其他两个卷和thinpool仍然有问题,现在我得到以下错误消息: lvremove vg0 / project1 device-mapper:thin 353:9:无法将池切换到写入模式直到修复精简池transaction_id = 4,同时期望:5无法更新mythinpool 我试过lvconvert – 修复vg0 / mythinpool 这告诉我volumegroup vg0有不足的空间:1扩展,5需要。 不幸的是,vg0是共享根系统和所有其他卷的唯一卷组。 有没有解决这个问题? 预先感谢您对此主题的任何帮助!
我正在使用RHEL 5.4并通过存储LUN使用LVM来存储我的文件。 甚至每个LVM实际上在ext3上达到16TB的大小。 而我的服务器正在生产。 只是为了介绍服务器的重要性。 我最初创build了一个大小为1TB的LVM分区。 实际上这个LVM被格式化为1K块大小,这与默认的4K块大小不同。 我通过运行下面的命令来实现这一点。 mkfs.ext3 -b 1024 /dev/mapper/<VGName>-<logical volume> 现在,我想为上面的逻辑卷增加2TB大小,并运行下面的命令 lvextend -L +2T /dev/mapper/<VGName>-<logical volume> 但是当我试图运行resize2fs命令如下: nohup resize2fs /dev/mapper/<VGName>-<logical volume> & 我得到exit status为1 ,如果我在nohup.out文件中看到,我可以看到下面的行: resize2fs 1.39 (29-May-2006) resize2fs: File too large while trying to determine filesystem size 现在,我无法理解如何增加LVM分区的大小。 我向你提供了预期块大小变化的input可能是问题。 如果情况不是这样,请让我知道其他任何要求。 build议我在紧急的基础上,因为它是在生产。
我有一个1TB的旋转高清和一个256GB的固态硬盘。 我保持我的操作系统和大型项目的SSD,速度。 其余的在旋转的HD上,因为它的大小。 问题:这意味着我有备份的东西分散在不同的设备上。 相反,我想组织起来,并拥有我需要备份(“我的”东西),比如/ data下的所有东西。 像过去一样,当我们使用不同的分区用于不同的用途。 符号链接不是答案,因为无论是a)我最终备份符号链接而不是数据,或b)我解引用他们,这意味着如果我曾经恢复我最终的一切都在一堆(并取消其他符号链接较低层次结构,制作副本)。 LVM可以智能地用在这里以某种方式为操作系统创build一个卷,为我的数据创build一个卷,但在它们之间是否分割PV?