当在RAID和LVM上拥有其根的(Archlinux)系统configuration错误并且无法引导时,需要采取哪些步骤来恢复它?
想创buildLV组,但是当我卸载/ dev / sda5这显示 [root@xen01 ~]# umount /dev/sda5 umount: /: device is busy umount: /: device is busy 这意味着磁盘/ dev / sda5正忙,因此我无法在此磁盘上创buildphsical逻辑卷。 [root@xen01 ~]# pvcreate /dev/sda5 Can't open /dev/sda5 exclusively. Mounted filesystem? 请任何人都可以告诉我如何做这个任务是迫切的..?
我的根分区有LVM RAID 1(不是mdadm RAID 1,但是正好是LVM2 RAID 1)。 我想让我的系统启动,而没有根LVM分区的底层PV所在的硬盘。 grub.cfg中的内核启动行(由GRUB2自动生成)如下所示: linux /kernel-genkernel-x86-3.11.7-hardened-r1-3 root=/dev/mapper/vg-root ro dolvm 它看起来完全与两个磁盘启用,并且系统是HDD容错运行时间,即它可以正常工作,如果两个硬盘在运行期间停机。 但是,如果我尝试启动没有HDD之一,我越来越 Refusing activation of partial LV root. Use –partial to override. 在启动和内核恐慌。 从一方面来看似乎是合理的,因为当一个PV不在时,启动lvm不是一种正常的行为。 但是,为了启动服务器,这是绝对必要的。 我能想到的潜在的解决方法是添加一些额外的选项内核发射线。 您知道如何使硬盘驱动器无法工作时,使LVM RAID 1可用于根分区吗?
是否有一些方法来设置一个磁盘的本地复制到另一个(Ubuntu)的方式,所有的读取操作将只涉及第一个磁盘? 这样的configuration对于AWS SSD实例将非常有用。 在这种情况下,SSD实例存储(非持久性磁盘,在实例停止后将被删除)可以复制到EBS磁盘。 当使用这种configuration时,数据密集型服务(如MySQL或MongoDB)可以configuration为使用SSD磁盘,同时我们可以确保数据永久存储在EBS中。
所以我最近为LVM卷组(VG)添加了2TB物理卷(PV),唯一目的是从VG中删除另一个2TB PV。 一切都从webmin进行。 所以一旦额外的PV被追加到LVM,通过按下“从VG删除”删除多余的PV。 然后webmin问 Are you sure you want to remove physical volume device /dev/sdc from its volume group? This will result in any data being shifted to other physical volumes within the group. 一旦我接受了网站没有改变(但加载animation是…加载所有的时间)。 现在,我陷入了这个没有进度条的webmin页面,我不知道应该导航还是离开。 ps显示 root@samothraki:~# ps aux | grep -i pv root 3436 0.0 0.3 79608 30524 ? S 02:38 0:00 […]
我有一个虚拟服务器上运行的MongoDB(Ubuntu 14.04.2 LTS)。 MongoDB日志说: Fri May 8 13:08:02.270 [initandlisten] ERROR: Insufficient free space for journal files Fri May 8 13:08:02.270 [initandlisten] Please make at least 3379MB available in /usr/lib/unifi/data/db/journal or use –smallfiles Fri May 8 13:08:02.270 [initandlisten] Fri May 8 13:08:02.270 [initandlisten] exception in initAndListen: 15926 Insufficient free space for journals, terminating 所以我扩展了另一个50GB的虚拟磁盘,但我仍然得到相同的信息。 我重新启动了MongoDB和机器本身。 我在MongoDBconfiguration中添加了“smallfiles”选项。 […]
我想挂载/ dev / sda2。 我该怎么做? 贝娄是fdisk,df,lvmdiskscan,lvdisplay,vgdisplay,lvscan的输出。 [root@IctThtSoluti-06 ~]# fdisk -l Disk /dev/sda: 1030.8 GB, 1030792151040 bytes 255 heads, 63 sectors/track, 125320 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00034e05 Device Boot Start End […]
请注意,为获得最佳性能,build议在btrfs文件系统上安装/ var / lib / lxd,或者设置ZFS或LVM,并将LXDconfiguration为使用ZFS池或LVM VG。 资源 这是为什么? 也就是说,这些文件系统(在主机上)如何等同于更好的容器性能? 是计算性能吗,是不是因为写时复制,既不是,也不是别的什么,减less了硬盘的消耗? 编辑1 感谢@Sven指出“LVM VG”是指逻辑卷pipe理器卷组。
如果我有一个卷组跨越多个PV,当我创build一个新的LV,我可以指定它存储在哪个PV? 快照怎么样? 我在设想一个由SSD和更大硬盘组成的卷组。 我希望我的root和home LV驻留在SSD上,但是使用HDD来获得更多的存储和瞬态快照。 看起来这可以通过从VG中的一个磁盘开始,创build主分区到其范围(作为线性types),然后添加第二个磁盘并将VG扩展到它。 我想知道是否有一个实际支持的方式来做到这一点。 在lvcreate手册页中看不到任何东西。
我有以下设置: 在Dell PowerEdge R320上运行的Debian稳定版(Linux内核3.16.7) 在PERC H310 Mini控制器上的RAID1中有两个SATA硬盘,可以看作是/dev/sda 由/dev/sda2支持的dm-crypt目标dm-0 具有单个上述物理卷dm-0单个LVM卷组 上述卷组中有多个逻辑卷dm-1 , dm-2等,格式为ext4 当一个进程开始对一个逻辑卷进行批量写入时,所有其他进程都会严重I / O饥饿 – 系统变得无响应(当涉及到I / O时延迟达30秒)会发生什么情况。 我认为这是负责确保不会发生的I / O调度程序。 我看到sda使用cfq : # cat /sys/block/sda/queue/scheduler noop deadline [cfq] 但是其他每个设备映射器的目标报告都没有I / O调度器: # cat /sys/block/dm-0/queue/scheduler none # cat /sys/block/dm-1/queue/scheduler none # cat /sys/block/dm-2/queue/scheduler none 我的问题是,为什么没有设备映射程序目标的I / O调度,我可以启用它,或者我怎样才能使这个系统响应在沉重的I / O负载?