我在Ubuntu Server 12.04服务器上使用KVMpipe理程序。 我的虚拟机的虚拟磁盘是LVM卷,格式为ext3。 客户操作系统都是Ubuntu 12.04和14.04服务器。 一切运行顺利,除了虚拟机在启动过程中卡住,显示如下消息: fsck from util-linux 2.20.1 /dev/vda1: clean, 260102/6340608 files, 1323923/25337600 blocks 无论是通过正常的shell命令还是通过“virsh-destroy”命令重新启动/closures虚拟机,都会发生这种情况。 我必须在1到15次之间重新启动它们才能使它们一路启动。 当我不得不重新启动它们时,上面的消息在每次重新启动时稍微增加一点。 与另一台具有类似设置的KVM服务器有同样的问题。 什么可能会导致这样的问题,我将如何解决? 笔记: 服务器有6个2到磁盘的RAID 6arrays 所有的虚拟机和LV都是通过virt-manager创build的 pipe理程序和虚拟机上使用的文件系统是ext4 编辑:标题改变后,迈克尔的评论。
我将在一个物理卷(RedHat Linux LVM)中存在两个逻辑卷。 我也将在这些LV之间移动大量的数据。 我的问题是:数据是在实际的物理磁盘上移动的,还是只是被修改的文件path? build立: +———————————————————————————–+ | | | + | | | | | +————————————————————————-+ | | | | | | | PV | +–File—+ | | | | | +-+—-+–+ + | + | | | | | | | | | | +————————————————————————-+ | | | | | | | | […]
我有一台运行Debian的networking存储服务器,包含多个硬盘。 这些驱动器都安装在samba共享文件夹的子目录中。 networking的所有成员都有完整的读写权限。 这个设置的问题是缺乏灵活性。 这些文件直接存储在一个文件夹中,一旦硬盘满了,用户必须在另一个硬盘上创build一个新的文件夹。 什么可能是dynamic分配空间的最佳解决scheme? 这是与我到目前为止: RAID 0:由于单个硬盘的每次故障都会导致大量数据丢失,因此分条不是一种select RAID 1:我的意图是重新使用不同大小的旧硬盘,所以这也不起作用 RAID 5:与上述相同,因硬盘大小不同而无法使用 LVM:很酷,因为它是可扩展的,但有没有一个选项来防止条纹? 如果没有,单个磁盘的故障将导致部分存储在该特定磁盘上的所有文件的损失… btrfs:子卷pipe理很好,但是一个文件夹可以跨多个卷吗? 基本上,我正在寻找一个没有条带化的类似LVM的系统,或者至less可以将所有多卷文件手动(cron作业等)移回单个卷。
我做了这个preseedconfiguration,但我无法从partman配方直接删除保留块的百分比。 似乎选项“partman-basicfilesystems / specify_reserved”是为它devise的,但它不起作用。 这里是我的预分区: di partman-auto/method string lvm di partman-auto/choose_recipe select myrecipe di partman-lvm/device_remove_lvm boolean true di partman-md/device_remove_md boolean true di partman-basicfilesystems/specify_reserved string 0 di partman-auto-lvm/new_vg_name string vg di partman-auto/expert_recipe string \ myrecipe :: \ 256 300 256 ext3 \ $primary{ } $lvmignore{ } $bootable{ } \ method{ format } format{ } \ use_filesystem{ […]
请让我确定我做错了事,还是不行。 我正在调整LVM下的根分区。 这个服务器是一个VMWare的Oracle Linux虚拟机。 我正在使用这篇文章: http : //kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1006371 我想我犯了一个错误。 第二部分后,我在救援模式下启动虚拟机,检查大小是相同的。 然后我重新创build了第三个分区(LVM下的root),并将它的types设置为LVM的8e。 我收到了一个具有相同起点和最后一点的分区。 我写了跳跃的变化。 然后我执行了pvcreate /dev/sda3命令。 它不允许我没有-ff键这样做。 所以,我犯了一个错误,不能回头。 我没有重新启动,我一度通过救援模式的系统。 请给出build议是否可以取消这种情况,并作出更正? 谢谢。
我有一个预configuration的硬件RAID系统。 它有2个RAID1configuration的磁盘。 它在RAID5configuration中还有6个磁盘。 6磁盘RAID5被拆分(由硬件)看起来像2个独立的磁盘: /dev/sda – RAID1 2x discs /dev/sdb – RAID5 6x discs (half of each disk) /dev/sdc – RAID5 6x discs (half of each disk) 我有一个lvm的物理量为上述每个。 我正在考虑将PV / dev / sda和PV / dev / sdb以及可能的/ dev / sdc添加到同一个卷组。 以我对LVM / RAID的天真观点来看,这看起来像逻辑卷将由RAID5和RAID1的混合支持。 这种方法有哪些风险,不足或pipe理困难? 谢谢, 抢
我有一个主机,在Debian Wheezy下。 虚拟化软件是qemu / KVM,并将LVM卷用作访客的磁盘。 客人都已经安装了使用debian wheezy,全盘encryption,LVM(/ boot是在luks设备中,LVM分为/,/ home,swap)。 有两次,我不得不调整一个客人的驱动器,希望增加客人的家庭音量。 我做的是: closures机器 从主机上,增加客户LVM卷 从debian-cd1引导来宾机,使用rescue / enable = true作为额外的引导参数。 从那个活系统,chroot进入客户系统(需要密码) 从chroot,cryptsetupresize 仍然在chroot中调整文件系统的大小 更新的initramfs 然后,我重新启动机器(正确卸载和closures卷和luks设备后),并需要几个小时才问我的密码。 如果有人遇到过这个问题,或者知道这个问题,我做错了什么,请告诉我! 这是上一次的dmesg日志: [0.000000]初始化cgroup子系统cpuset [0.000000]初始化cgroup子系统cpu [0.000000] Linux版本3.2.0-4-amd64([email protected])(gcc版本4.6.3(Debian 4.6.3-14 ))#1 SMP Debian 3.2.63-2 [0.000000]命令行:BOOT_IMAGE = / vmlinuz-3.2.0-4-amd64 root = / dev / mapper / srvices-root ro单个控制台= tty0 console = ttyS0,115200 [ [0.000000] BIOS-e820:0000000000000000 – […]
我想将LVM逻辑卷布局克隆到另一个主机(=创build具有相同大小的卷)。 有没有人知道这个解决scheme? 我知道我可以执行像这样的事情: sudo LC_ALL=C lvs -o lv_name,lv_size,vg_name –units M –noheadings –separator '|' –nosuffix | LC_ALL=C awk -F \| '{ printf("lvcreate -n %s -L %.0fM %s\n",$1,$2,$3) }' 生成命令在另一台主机上执行。 但是有没有更多的“标准”方式来执行这样的任务? 我浏览了LVM手册页,发现了vgcfgexport和vgexport 。 首先会导出所有的元数据,包括像PV UUID这样的东西,第二个元素只是用来移动卷组,但是这不是我要找的东西。
错误的分区是/ dev / sdb3。 从/ proc / mdstat: md2 : active raid1 sda3[2] 2896184639 blocks super 1.2 [2/1] [U_] 说/ etc / fstab: # /dev/md/2 belongs to LVM volume group 'vg0' /dev/vg0/backups /backups ext4 defaults 0 0 /dev/vg0/root / ext4 defaults 0 0 pvs说: PV VG Fmt Attr PSize PFree /dev/md2 vg0 lvm2 a– 2.70t […]
我的环境包括安装在六台物理服务器上的AIX 6.1操作系统,并通过Brocade交换机连接到DS8000 SAN存储。 我打算在两台物理机器上构buildHACMP群集,使磁盘可以相互故障转移到两台服务器上。 出于DS8000的原因,我将一台服务器的卷池与第二台服务器的WWN FC适配器连接起来。 我在目标/第二台服务器上运行了cfgmgr,但是hdisks并没有像预期的那样出现。 你如何build议检查和处理这样的问题?