增加磁盘大小 – 使用LVM还是不行?

一位同事问我为什么要使用LVM。 有了我有限的LVM知识,我说,因为它允许您轻松地resize/pipe理卷!

他的想法是这样的:

我们使用ESX,并有能力增加磁盘的大小。 他提出了这种情况,而不是使用LVM:

  1. 在vsphere客户端中将/ dev / sdb增加100GB
  2. 回到Linux重新扫描/ dev / sdb:echo 1> / sys / block / sdb / device / rescan
  3. 在线调整FS的大小:resize2fs / dev / sdb

完成。

这似乎很好。 我不确定。 这种情况有什么不对,而不是使用LVM? 允许磁盘扩展有什么更好的select?

当您不在虚拟环境中时,LVM非常适合您。 当磁盘可以从环境外部克隆和生长时,这个好处就大大减less了。

我不会在VMWare解决scheme中使用LVM。 有一些开销,这有点多余,需要重新devise当前的系统。 我认为这可以回到规划,但是在构build服务器之前,您应该了解磁盘空间需求。 至less在VMWare中,增加空间非常容易,正如您所指出的那样。

我个人避免使用LVM。 也许这是一个老派的方法,或者我被HP SmartArray RAID控制器搞坏了,但是我发现我可以根据应用程序的需求和环境来预测和计划磁盘利用率的需求。 大多数系统都有一个或两个“增长分区”,具体取决于应用程序。 它可能是多用户系统的家。 /opt一个应用程序服务器。 /var表示数据库服务器日志logging繁忙的系统或/var/lib/pgsql …需要增加的分区应该是表中的最后一个分区或者它自己的硬件卷。

另请参阅: LVM的危险和注意事项

根据文件系统层次结构标准 ,有多个分区的目的。 在下面的例子中, /var/appdata的活动最多。 /appdata设置为增长,如有必要。 /var有足够的空间用于周期性的日志logging活动。 /usr/boot不会经常更改。 /可能会增长一些,但如果它成为一个问题,请在该层次结构下挂载另一个文件系统。 这在操作系统发行版中相当一致。

 Filesystem Size Used Avail Use% Mounted on /dev/cciss/c0d0p2 9.7G 3.4G 5.9G 37% / /dev/cciss/c0d0p7 996M 34M 911M 4% /tmp /dev/cciss/c0d0p6 3.0G 1023M 1.8G 37% /var /dev/cciss/c0d0p3 5.9G 2.0G 3.6G 37% /usr /dev/cciss/c0d0p1 99M 23M 71M 25% /boot /dev/cciss/c0d0p8 79G 6.5G 73G 9% /appdata tmpfs 2.4G 0 2.4G 0% /dev/shm 

LVM的另一种情况,即使在虚拟主机上也是如此:它允许您跨多个磁盘或磁盘集扩展文件系统。

假设您在没有SAN的情况下运行ESX,并且在数据存储空间不足的情况下持有需要更多空间的特定虚拟机; 如果添加更多物理磁盘,则通常会创build新的数据存储,您可以将虚拟磁盘添加到该数据存储; 那些虚拟磁盘可以作为新的物理卷添加到您的LVM卷组中。