背景: 我熟悉基本的RAID级别,并且很想知道在RAID0或RAID5使用SSD设备是否比将其添加到大型LVM卷更好。 具体来说,我担心小型服务器机房中的热量,声音和功耗,并计划从硬盘迁移到SSD。 有问题的服务器有4-6个SATA-II通道,所以这只是关于如何在交换机之后获得最高性能的驱动器,而不用担心增加新的控制器或其他任何其他更换驱动器的问题。 RAID0 有了RAID0 ,我意识到我从驱动器的损失中无法恢复 – 但是在一个占主导地位的读取环境中,我相信SSD不可能达到估计的1000000小时MTBF,而且肯定不会达到写周期长期困扰闪存的问题(但现在似乎已经成为过去)。 RAID5 使用RAID5我会“失去”一个驱动器来平价,但如果其中任何一个死亡,我可以通过更换该单元来恢复。 LVM 有了LVM ,我正在有效地创build一个软件JBOD – 很简单,但是如果一个驱动器死了,那么就像RAID0 。 题: SF社区认为这种情况的最佳方法是什么?
尝试添加磁盘以在CentOS 7上镜像LVM卷时总是失败,并显示“可用空间不足:需要1个扩展盘区,但只能使用0个”。 已经search了一个解决scheme,我已经尝试指定磁盘,多个日志logging选项,添加第三个日志分区,但还没有find解决scheme 不知道我是否犯了一个新手的错误,或者是有一些更微妙的错误(我更熟悉ZFS,新使用LVM): # lvconvert -m1 centos_bi/home Insufficient free space: 1 extents needed, but only 0 available # lvconvert -m1 –corelog centos_bi/home Insufficient free space: 1 extents needed, but only 0 available # lvconvert -m1 –corelog –alloc anywhere centos_bi/home Insufficient free space: 1 extents needed, but only 0 available # lvconvert -m1 –mirrorlog mirrored […]
我想在Linux KVM-Host上设置一个带有3x1TB驱动器的RAID 5。 RAID将用作VM磁盘的LVM精简存储。 已经有很多关于硬件RAID和软件的讨论[1]。 根据这个讨论,不应该使用软件突袭,而是使用高速caching和BBU的硬件突袭,因为写入性能更好。 我想知道的是,如果下面的设置可以与高速caching和BBU硬件RAID(例如HP P410 512 MB + BBU)在读/写性能和数据安全方面相媲美: Linux软件RAID / mdadm RAID 5 在512 MB RAM磁盘上的LVM回写caching 主机由UPS支持,以防止数据丢失,如在突袭BBU BBU [1] 软件vs硬件RAID性能和caching使用情况
我有2TB磁盘的服务器,最初有人像这样分区: 用于操作系统文件的300GB标准主分区(CentOS 7)。 1.7TB LVM具有一些相当大的逻辑卷 – 用于其他需求。 由于操作系统文件的实际大小仅为400GB左右,后来被转移到LVM自己的逻辑卷上,所以这个在磁盘开始的300GB的分区变得没有用了。 所以,我删除了这个分区,现在想把PV的开始位置移动到磁盘的开始位置,所以它会利用整个磁盘空间。 但是我找不到任何工具来这样做 – pvextend只能将PV扩展到磁盘结束,而不是开始。 是的,我知道我可以将旧的分区添加到VG作为另一个PV,但是在单个磁盘上有多个PV,看起来就像是非常奇怪的事情。 另外我知道我可以将分区复制到某个外部设备或云存储,然后重新创build物理磁盘分区。 但是我不想要这个,因为服务器停机时间很长。 那么,有什么办法可以快速将PV扩展到磁盘的开始?
长话短说,我负责有两个RAIDarrays(/ dev / md0和/ dev / md2)的媒体服务器。 我还有很多东西要学习软件RAID和LVM等。我们在/ dev / md0中有一个驱动器故障,没关系,我换了坏的驱动器,重新组装了RAIDarrays(昨天晚上大部分时间完成了),今天早上我进来了,能够挂载/ dev / md0,没有数据丢失。 我一点都不知道,有些东西在/ dev / md2中被破坏了。 现在/ dev / md0是两年前我的同事设置的,大约六个月前我设置了/ dev / md2。 总是使用戴尔和惠普服务器内置的硬件控制器完成RAID,这是我第一次不得不处理软件RAID。 我遵循[url] http://www.gagme.com/greg/linux/raid-lvm.php[/url]上的指示,我认为这是最好的主意,因为LVM会让我能够增长RAIDarrays在将来(我刚才了解到mdadm可以做同样的事情)。 这直到今天都没有问题。 修复/ dev / md0之后重新启动机器后,无法挂载/ dev / lmv-raid / lvm0(表示无法find文件或目录)。 它几乎看起来像逻辑卷消失了。 我不明白这会造成什么后果。 第二个arrays中没有驱动器坏了,我没有碰到第二个arrays。 没有什么应该与arrays坏了。 但看起来有些不对劲。 现在/ dev / md2正在运行,并处于清理状态,但我无法安装它。 恐怕数据不见了 可怕的是,在我看来,没有任何解释。 我假设我无法安装/ dev / md2,因为RAIDarrays期望被LVM控制。 也许我不太了解系统,但如果我有一个干净的数组不应该数据仍然在arrays中? 任何想法如何我可以去恢复数据? […]
当我尝试缩小一个逻辑卷时遇到问题。 我采取了以下步骤显示的操作: # unmount /home # lvreduce –size -100G /dev/vg_dev/lv_home # lvdisplay /dev/vg_dev/lv_home — Logical volume — LV Path /dev/vg_dev/lv_home LV Name lv_home VG Name vg_dev LV UUID QOxrP3-nS36-nZTG-yL7e-sDi0-Wl9z-LXp4pJ LV Write Access read/write LV Creation host, time , LV Status available # open 1 LV Size 197.98 GiB Current LE 50683 Segments 1 Allocation inherit […]
我意识到,由于NFS不是块级的,LVM不能直接使用。 但是:有没有办法将多个NFS 导出 (从3台服务器)组合到不同服务器上的一个安装点上? 具体来说,我希望能够在RHEL 4(或5)上执行此操作,然后将组合挂载重新导出到RHEL 4服务器。 扩张 我挂lvm的原因是我想要一堆导出的挂载( serverb:/mnt/export , serverc:/mnt/export , serverc:/mnt/export等)到/mnt/space /mnt/space这个服务器上的/mnt/space ( serverx )作为一个大文件系统。 是的,我知道再出口通常是一件坏事,但认为它可能有效,如果有一种方法可以在新版本上完成,而不是旧版本 从阅读unionfs文档看来,我无法通过远程连接使用它 – 我误解了它吗? 更准确地说,由于Union FS合并了多个分支的内容,但是使它们看起来像一个,它似乎并没有反过来: 我试图以一种合并的方式装入一堆NFS的数据,然后写给他们,而不是关心数据到哪里去。
我的服务器上有三个990GB的分区。 使用LVM,我可以创build一个〜3TB的分区来存储文件。 1)系统如何确定首先使用哪个分区? 2)我可以find一个文件或文件夹在物理上的磁盘? 3)如果我在LVM中丢失了一个驱动器,我是否会丢失所有数据,或者只是在该磁盘上物理数据?
决定在我们的服务器上使用LVM2作为卷pipe理器之后,也希望有一个可在线resize的文件系统。 在阅读了几篇文章之后,我决定使用JFS来支持XFS。 现在我今天在办公室服务器上断电了,我发现JFS卷上的一个文件已经完全损坏了。 虽然这可能发生,但是系统在我断电后没有在启动过程中指出任何文件系统问题,从而使我相信一切都是好的。 重播日志后,所有文件系统都是干净的。 这让我的口感不好。 我不想要一个文件系统在断电后不能恢复,但我真的不希望有一个文件系统不会告诉我可能有问题。 所以我想我会试试看,你会问哪个文件系统? 你喜欢哪一个?为什么? 我正在寻找以下function: 强大的 在线增长 对于一般的工作负载来说性能很好 可以在CentOS 5.4发行版中find,但这是可选的 我也想知道你是否使用过JFS,并且有过不好的经验 – 当然如果使用JFS的话也是成功的。 最终:你更喜欢XFS而不是JFS,反之亦然(正如日常使用中提到的那样,而不是特定的工作负载)
我有6个驱动器(每个1.5T,所有相同的型号和固件版本),是RAID5arrays的一部分。 RAID5制作一个LVM卷组和一个逻辑组。 后者只包含一个ext3分区。 我最近跑了: e2fsck -f /dev/vg03/lv01 && resize2fs -M /dev/vg03/lv01 退出没有错误。 现在当我尝试mount /dev/vg03/lv01我得到: EXT3-fs error (device dm-0): ext3_check_descriptors: Block bitmap for group 30533 not in group (block 1000532368)! EXT3-fs: group descriptors corrupted! 我如何摆脱困境? 这是我现在可以给你的所有信息: fdisk -l /dev/sd[cdefgh]显示(正确)他们是“ Linux raid autodetect fdisk -l /dev/sd[cdefgh] ” 但fdisk现在显示: fdisk -l /dev/md0 磁盘/ dev / md0:7501.5 GB,7501495664640字节 … […]