主题总结了这个场景。 我相信答案是没有停机时间,但系统在重build期间可能会变得很慢。 这很好。 但是,如果有宕机,多久? 短暂维修时间的小点是可以接受的。 重build的日子需要一个新的计划来评估如何处理。 详细资料:客户端有一个连接到Synology RS2414RP +(运行DSM 5)的iSCSI连接,它是一个有12个托架的机架式装置。 自最初设置以来,所有托架都装有3TB驱动器。 而且由于它是专门用于一个大型iSCSI卷的设备,因此设置为使用最大的空间量。 尽pipe这个空间大概在1GB左右,但是它已经工作了好几个月了。 现在,系统偶尔会遇到“只读”模式,我认为这是由于iSCSI卷的精简configuration达到卷本身的外部限制所致。 通过SSH和传统的PostgreSQL数据库备份来pipe理卷的“死灰复燃”,这个数据库在保存iSCSI分区的基础卷上释放了大约36MB的空间。 这是足够的喘口气让iSCSI卷再次登上。 但显然是一个等待发生的问题。 所以,由于这台Synology设备的音量格式为具有2个磁盘容错function的Synology Hybrid RAID设置,因此我们决定用一个4TB的驱动器replace其中一个3TB的驱动器,以扩大音量。 该驱动器已被插入,格式化和正在运行通过糖蜜平价检查阶段缓慢。 但一旦完成奇偶校验,我将不得不login才能扩大音量。 在最后阶段,从服务中断的angular度来看会发生什么? 由于Synology DSM是基于LVM(Logical Volume Manager,逻辑卷pipe理器)等标准开放源代码工具,所以我在网上阅读的内容可以在不增加停机的情况下进行扩展 。 但是由于我们正在谈论27TB的存储,我想要双倍/三重地确保我的假设是正确的。 基本上是这样的:当奇偶校验完成后,我又扩大了音量,所有的服务都会继续运行,这个扩展会作为后台进程发生,从而保证零停机。
我在RAID 5上运行mkfs.ext4,并花费数小时才能完成。 这是一个3TB,四个磁盘设置,我只是在做: mkfs.ext4 /dev/md0 我的条纹大小和宽度看起来不错。 我怎样才能加速呢?
我目前正在处理由RAID-5 md设备备份的Linux LVM卷组上的多个磁盘故障。 由于似乎是一个行为不端的电源,一个磁盘已被完全取出,另一个磁盘则显示有限数量的腐败行业。 问题是,一旦I / O错误发生, md就会closuresarrays,因为它没有足够的设备来运行。 哪里唯一涉及,我可以mdadm –stoparrays,然后重新创build它让所有设备再次活跃。 不幸的是,arrays是LVM卷组中的PV,我似乎无法让内核释放它。 vgchange -an似乎没有做任何事情,酒吧发现了几个I / O错误。 我明显错过了一些东西,但是如何以-insert-favorite-deity的名义让LVM在不重新启动服务器的情况下释放基础PV?
我们有几个Dl360 G6的领域。 他们在RAID 1中有两个146G磁盘。在LVM之后,这显示为一个136G卷(文件系统损失7%)。 这被雕刻成100M / boot,其余的LVM PV。 该volgroup包含2个逻辑卷,一个54G专用交换(是的,这是很多,是的,这是devise),和81G专用于/。 截至今天,我们在raid 1中添加了2个300G磁盘。这显示在操作系统中,在添加到LVM之后,显示为279G(文件系统损失7%)。 这显示为/ dev / cciss / c0d1。 我运行这些命令 – 将新arrays作为LVM卷 – pvcreate /dev/cciss/c0d1 将卷添加到现有卷组 – vgextend VolGroup00 /dev/cciss/c0d1 扩展根分区逻辑卷以使用新空间的100% lvextend -l 100%FREE /dev/VolGroup00/LogVol01 调整音量 – resize2fs -p /dev/VolGroup00/LogVol01 问题是,我们似乎错过了很多空间。 精确到90G左右。 vgdisplay的输出显示大约82G的物理盘区空闲(Free PE / Size 2642 / 82.56 GB),就好像忽略了我已经包含了100%免费。 我在这里误读了什么吗? 我做错了什么吗? 任何帮助,将不胜感激。 我想知道是否可能会丢失空间到LVM格式化,然后第二次失去空间的ext3文件系统的顶部会导致“双”损失的可用空间。 但是这似乎并不能解释我在pvdisplay和vgdisplay中看到的内容。 以下是主机上LVM命令的转储: [root@bass01 […]
在业余时间,我帮助pipe理一个托pipeDebian Linux服务器,服务于各种网站,并为less数人提供电子邮件。 它没有看到大量的stream量,但我们当然想要做的事情正确。 然而,当我们第一次得到这个服务器的时候,有人为我们推出了一个自定义的内核,使我们可以做各种我们想做的事情(比如LVM,RAID等)。 现在几年前,当然还有各种各样的安全漏洞已经被修复等等,我们宁愿只从一个持续更新的股票核心中运行。 问题是我们没有我们在自定义内核上运行时启用的function列表,并且尝试使用一个新的function会导致无法启动的内核。 所以问题是 – 我们如何才能使用Debian的内核,同时仍然能够拥有我们所需要的所有function? 我需要先收集哪些信息,然后采取哪些措施才能实现?
我正在尝试testingLVM,但是我首先失败了,可能很简单 – 创build一个快照。 我有以下情况: root@debian:~# vgs VG #PV #LV #SN Attr VSize VFree big 1 1 0 wz–n- 14.99g 5.68g fast 1 2 0 wz–n- 14.99g 4.75g 和 root@debian:~# lvs Internal error: Using string as sort value for numerical field. Internal error: Using string as sort value for numerical field. Internal error: Using string as […]
我有一个lvm的ext3分区,比我想要克隆的驱动器大,但是没有足够的空间,所以所有的数据本身都适合。 将这个驱动器克隆到较小的驱动器最好的办法是什么? 如果可能,我宁愿不必先调整分区大小。
#fdisk -l /dev/sdb1 * 1 9702 77931283+ 8e Linux LVM 我尝试了下面的命令: #mkdir /media/backup #mount /dev/sdb1 /media/backup mount: unknown file system 'LVM2_member' 我如何安装它?
我正在一个基于xen的vps中,在一个centos domU上玩LV / LVM。 我处于救援模式,并且为整个驱动器创build了一个物理卷( pvcreate / dev / xvda1 ),格式为LVM。 我正在尝试使用vgcreate main / dev / xvda1来创build一个卷组,但是它返回“Command failed with status code 5”。 我一直无法find这个错误代码的解释。 有谁知道这是什么意思? 对于它的价值,我的目标是使用lvm在我的驱动器上创build多个逻辑卷。 谢谢
我想听听有个人经验的人使用lvm + ext3和ext3恢复崩溃的系统或崩溃的驱动器的数据。 哪个选项难以从备份恢复或提取缺失的数据?