如何用storcli扩展RAID5arrays?

我刚刚买了一个新的磁盘。 如何在不丢失数据的情况下扩展现有的RAIDarrays?

如果你犯了一个错误,你可能会失去所有的数据。 先备份。 然后继续。

使用storcli /c0 show看看你有什么驱动器和卷。 TOPOLOGY表是一个好的开始:

 TOPOLOGY : ======== ---------------------------------------------------------------------------- DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR ---------------------------------------------------------------------------- 0 - - - - RAID5 Optl N 10.914 TB dflt NN none NN 0 0 - - - RAID5 Optl N 10.914 TB dflt NN none NN 0 0 0 252:0 10 DRIVE Onln N 2.728 TB dflt NN none - N 0 0 1 252:1 9 DRIVE Onln N 2.728 TB dflt NN none - N 0 0 2 252:2 11 DRIVE Onln N 2.728 TB dflt NN none - N 0 0 3 252:3 8 DRIVE Onln N 2.728 TB dflt NN none - N 0 0 4 252:4 12 DRIVE Onln N 2.728 TB dflt NN none - N ---------------------------------------------------------------------------- 

这将显示哪些磁盘已经在RAIDarrays中。 我只有一个ID为0 RAIDarrays( Arr )。

PD LIST显示你的磁盘:

 PD LIST : ======= -------------------------------------------------------------------------------- EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type -------------------------------------------------------------------------------- 252:0 10 Onln 0 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68AX9N0 U - 252:1 9 Onln 0 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68AX9N0 U - 252:2 11 Onln 0 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68EUZN0 U - 252:3 8 Onln 0 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68EUZN0 U - 252:4 12 Onln 0 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68EUZN0 U - 252:6 14 GHS - 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68EUZN0 D - 252:7 13 UGood - 2.728 TB SATA HDD NN 512B WDC WD30EFRX-68EUZN0 D - -------------------------------------------------------------------------------- 

新添加的磁盘应显示为UGood (未configuration好)。 在该示例中,这是shell252插槽7中的磁盘13

要将磁盘添加到RAIDarrays:

 storcli /c0/v0 start migrate type=raid5 option=add drives=252:13 

/c0是控制器, /v0是RAID卷(见上面的TOPOLOGYVD LIST )改变, start migrate是要发出的命令, type=raid5意思是“keep it RAID5”,我们要添加一个磁盘( option=add ), drives是以EID:Sltforms添加的磁盘列表(请参见PD LIST )。

这个过程可能需要几天的时间。 控制器在后台执行工作时,可以继续使用RAID卷上的文件系统。 你甚至可以重新启动服务器,控制器将从原来的位置继续。

要检查进度,使用storcli /c0/v0 show migrate将会打印如下内容:

 VD Operation Status : =================== ----------------------------------------------------------- VD Operation Progress% Status Estimated Time Left ----------------------------------------------------------- 0 Migrate 38 In Progress 49 Minutes ----------------------------------------------------------- 

注:估计是离开的; 那49分钟是我3个小时的情况。 我的感觉是,2天8小时的第一次估计是更准确的。

迁移完成后,控制器将执行另一个后台作业(“后台初始化”)。 不知道那是什么。

完成后,将打印:

 VD Operation Status : =================== ----------------------------------------------------------- VD Operation Progress% Status Estimated Time Left ----------------------------------------------------------- 0 Migrate - Not in progress - ----------------------------------------------------------- 

使用storcli /c0 show查看RAID卷的新大小:

 VD LIST : ======= -------------------------------------------------------------- DG/VD TYPE State Access Consist Cache Cac sCC Size Name -------------------------------------------------------------- 0/0 RAID5 Optl RW Yes RWBD - OFF 10.914 TB data -------------------------------------------------------------- ^^^^^^ 

我正在使用LVM来pipe理磁盘。 pvscan显示磁盘大小没有改变:

 PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free] ^^^^^^^^ 

时间重新启动(至less我找不到让Linux重新扫描磁盘的方法)。

至less, lsblk现在显示正确的磁盘大小:

 sdb 8:16 0 10,9T 0 disk ^^^^^ 

LVM仍然看不到( pvscan ):

 PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free] 

pvdisplay提供更多细节:

  --- Physical volume --- PV Name /dev/sdb VG Name data PV Size 8,19 TiB / not usable 3,00 MiB Allocatable yes PE Size 4,00 MiB Total PE 2145791 Free PE 134655 Allocated PE 2011136 PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg 

我们可以在执行之前testing下一个操作: pvresize --test -v /dev/sdb

  TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated. Using physical volume(s) on command line. Test mode: Skipping archiving of volume group. Resizing volume "/dev/sdb" to 23437770752 sectors. Resizing physical volume /dev/sdb from 0 to 2861055 extents. Updating physical volume "/dev/sdb" Test mode: Skipping backup of volume group. Physical volume "/dev/sdb" changed 1 physical volume(s) resized / 0 physical volume(s) not resized Test mode: Wiping internal cache Wiping internal VG cache 

2861055范围4 MiB转换为10.91 TiB (2861055 * 4096/1024/1024/1024)。

调整逻辑卷的大小: pvresize -v /dev/sdb

最后,LVM看到了新的能力:

 # pvdisplay --- Physical volume --- PV Name /dev/sdb VG Name data PV Size 10,91 TiB / not usable 3,00 MiB Allocatable yes PE Size 4,00 MiB Total PE 2861055 Free PE 849919 Allocated PE 2011136 PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg 

您现在可以继续增大卷组上的文件系统。