我有一个像这样的设置: Dom0 LV | DomU Physical Disk | | XVDA1 XVDA2 (/boot) (DomU PV) | VolGroup00 (DomU VG) | | LogVol00 LogVol01 (swap) (/) 我正在尝试调整DomU根文件系统的大小。 (VolGroup00-LogVol01)我意识到我现在需要调整分区XVDA2,但是当我尝试在Dom0上分开时,它只是告诉我“错误:无法检测文件系统”。 所以要调整根部分的大小VolGroup-LogVol00不应该是: # Shut down DomU xm shutdown domU #Resize Dom0 Logical volume lvextend -L+2G /dev/volumes/domU-vol # Parted parted /dev/volumes/domU-vol # Resize root partition resize 2 START END (This is […]
我有一个由10x2TB驱动器组成的RAID6arrays,我将其用作NAS设备。 服务器机箱有6个额外的托架,可供将来扩展使用。 存储将全部是500G-1T稀疏文件,作为iSCSI磁盘提供给各种服务器,磁盘映像驻留在XFS分区上。 我的问题是:给定这个设置,将XFS分区直接安装在/ dev / md设备上更有效率吗? 我更愿意创build一个卷组,并使用LVM来pipe理这个空间,但是如果这会导致大量的性能损失,那就不会这么做了。 考虑到最终创build另外6个插槽的第二个RAIDarrays,如果我开始使用LVM,那么将其添加到卷组将是相当简单的,但是如果不使用LVM,您可以在两个不同的设备上运行XFS文件系统首先? 两个单独的XFS坐骑,虽然不理想可能会起作用,但同样只有在性能有所提升的情况下才能进行补偿。
我似乎无法做到这一点(或在互联网上find关于这个问题的信息)。 使用lvm上的根文件系统创buildinitramfs时是否还有其他设置? 这应该是沉默: /boot -> bootable ext3, containing the kernels / -> root on lvm, jfs /usr -> usr on lvm, jfs /var -> var on lvm, jfs 我正在使用debian squeeze,kernel 2.6.32-5-amd64,lvm2。
经过一番search,我假设lvm2 restriping,如在一个活跃的LV的所有程度,并平均重新分配在VG所有当前的PV,是不可能的? 例如: 1个具有6个物理卷的卷组基于HDD和1个物理卷的SSD。 新的LV是专门在SSD PV上创build的,使用lvcreate选项来应对高写入IOPS。 后来,IOPS下降,LV占用了宝贵的SSD空间,因此应该将其移至6个物理卷,以便跟上中等写入IOPS。 (在同一个VG中混合使用SSD和HDD基本上是一件有趣的事情,因为pvmove可以将LV在线从SSD移动到硬盘并返回,但不幸的是移动时不能移动) 离线的情况是直截了当的:跨硬盘创build一个新的条纹LV,dd从旧到新的所有内容,重命名,再次在线。 但有没有办法做到这一点在线? 最接近的事情是我写了一个运行pvmove bash脚本来分散的范围 ,但不会是相同的(因为范围的大小是一个巨大的4 MiB反对典型的条带大小64 KiB)。
我有一个专用的服务器,它具有以下内容: 2 x 146GB drives in RAID1 – configured 3 x 600GB drives in RAID5 – unconfigured 目前,2个146GB硬盘正在处理一切,比如操作系统,Apache,MySQL。 应该configuration3个600GB驱动器,但是服务器提供商正试图通过屋顶来给我充电以configurationRAID5arrays。 我一直在寻找通过LVMconfiguration服务器,但由于我从来没有这样做过,我想知道是否有什么我需要担心/寻找,因为我不想弄乱当前的服务器。 我希望3 x 600GB驱动器是我的Apache Web根目录。 我需要创build一个符号链接到这里的文件夹作为我的'www'目录吗? 有没有人遇到任何我可以遵循的好教程? 谢谢
可能重复: 增加Linux分区dynamic? 科学Linux 6.1 x86上有3个lvm卷。 我想删除一个卷,并给/ dev / mapper / VolGroup-lv_root。 [root@localhost /]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup-lv_root 50G 38G 9.1G 81% / tmpfs 504M 924K 503M 1% /dev/shm /dev/sda1 485M 68M 392M 15% /boot /dev/mapper/VolGroup-lv_home 96G 7.7G 83G 9% /home umount /dev/mapper/VolGroup-lv_home lvremove /dev/mapper/VolGroup-lv_home umount /dev/mapper/VolGroup-lv_root lvextend -L +96G […]
我正在尝试向XenServer添加辅助本地SR,但没有取得任何成功。 服务器有两个RAID 10arrays; 在XenServer安装中select了主arrays用于VM存储 – 总计272GB。 次要arrays总共为4TB,但无法将其添加到XenServer。 我尝试使用FDISK,但它抱怨它大于2.2TB,并build议使用parted。 所以我用parted和遵循http://www.cyberciti.biz/tips/fdisk-unable-to-create-partition-greater-2tb.html但是当我尝试使用mkfs.ext3,它说: [root@l1ps01xen ~]# mkfs.ext3 /dev/sdb1 mke2fs 1.39 (29-May-2006) mkfs.ext3: Device size reported to be zero. Invalid partition specified, or partition table wasn't reread after running fdisk, due to a modified partition being busy and in use. You may need to reboot to re-read your partition table. [root@l1ps01xen […]
我正在寻找使用LVM创buildXen(HVM)备份的方法。 我知道xm save但这是一个低效率的空间明智的,B)虚拟机将closures。 我发现rsnapshot能够创build一个LVM快照,但要恢复这个,我将不得不将所有文件复制到机器上(而不是仅仅恢复完整的LVM,一切似乎都是单个文件)。 你有推荐的备份软件吗? 我正在Xen主机上运行CentOS。 一些要求: 它可以支付软件,但不是太昂贵(个人使用) 它应该有差异(如完全备份,然后是增量备份(以保留空间))。 易于恢复的Xen虚拟机(目前rsnapshot需要复制所有文件,而不是一个.img文件恢复或类似的东西)。 提前致谢。
这是故事,有点复杂。 很久以前,我只安装了一个只有一个物理卷的LVM卷组的Linux系统(我们称之为磁盘A ),然后我得到了一个RAID卡(lsi 1064e控制器),并构build了一个带有两个磁盘的raid1arrays。 自然我决定将我的系统(和数据)迁移到新的RAIDarrays,我用命令pvmove做到了这一点。 一切看起来很好,我从卷组中删除了磁盘A (使用pvremove ),并将其用于另一个盒子。 大约几个月前,我得到了一个新的磁盘,然后我决定用三个磁盘而不是raid1构build一个ime raidarrays。 所以我得到了磁盘A回来,并使用pvmove将原始RAID 1arrays中的每一件事情复制到磁盘A。 在我完成工作后,我再次使用pvmove ,将事情复制回新的ime raid。 (在我恢复了卷组之后,我证实了我当时正在运行vgreduce )。 但由于某种原因,我没有从磁盘盒中取出磁盘A. 今天我把磁盘A重新分区,然后把它从盒子里拿出来放到别的地方。 我重置框后, grub找不到音量组! 。 然后我尝试了gentoo systemrescuecd,pvs什么也没有打印,而testdisk说“没有LVM或LVM2结构”。 很明显像磁盘A中卷组的LVM元数据丢失了。 现在我正在运行testing磁盘一段时间,等待,我不得不说我有点担心我的数据,我真的觉得我需要一些关于恢复LVM元数据或只是数据的build议。 所以现在我的问题是为什么pvs不能提供信息? 我的意思是我只是重新分区,并删除了一个不在卷组中的磁盘。 如果这造成我的麻烦,这是否意味着lvm有一个错误?
所以,我有一个3.5TB MySQL数据库的服务器与每个表innodb文件。 它有4个磁盘RAID 10组中的24个2.5“10K HDs,通过vmware ESXi连接成1TB数据存储,全部6个LVM分为一个6TB ext3磁盘 现在,我正在做一个 sudo e2fsck -f /dev/vg1/lv1 之前 sudo resize2fs /dev/vg1/lv1 这里是iostat -x 5的结果: Device: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 sdb 0.00 0.00 33.40 0.00 267.20 0.00 8.00 0.17 5.15 5.15 17.20 sdc 0.00 […]