这是一个x86 Solaris 11.1安装。 我有两个zfs池R500和rpool
我想将R500从500GB的磁盘升级到2TB,然后使用500GB的磁盘作为root rpool磁盘来replace320GB的磁盘。
我分离了其中一个rpool磁盘,并在对SMI标签和分区进行分类之后附加了一个500GB的磁盘,因为它认为它在R500池中正在使用。 它恢复正常,但不会启动挂在BIOS中的validationSMI池。 Grub装载了剩余的320GB磁盘,但挂在SunOS旗帜上,认为500GB上的引导块丢失,但320GB上有一些损坏。 所以我删除了两个磁盘,并插入分离的(并且不变的320GB磁盘)启动罚款。 我已经附加了500GB的磁盘,这是重新弹性,但在“zfs状态rpool”
它显示320GB的磁盘是不可用和联机的,我猜它是指从同一端口删除旧的320GB。 但是,我现在如何分离这个不可用的磁盘?
这种方式重新启动后,我不能做几个小时,直到rpool重新安装和启动块安装。
root@opensolaris:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT R500 464G 402G 61.8G 86% 1.00x DEGRADED - rpool 298G 213G 85.2G 71% 1.00x DEGRADED - root@opensolaris:~# zpool status rpool pool: rpool state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function in a degraded state. action: Wait for the resilver to complete. Run 'zpool status -v' to see device specific details. scan: resilver in progress since Thu Mar 7 12:39:22 2013 29.0G scanned out of 213G at 22.1M/s, 2h21m to go 29.0G resilvered, 13.64% done config: NAME STATE READ WRITE CKSUM rpool DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 --> c5t3d0s0 UNAVAIL 0 0 0 --> c5t3d0s0 ONLINE 0 0 0 c3t1d0s0 DEGRADED 0 0 0 (resilvering) root@opensolaris:~# cfgadm Ap_Id Type Receptacle Occupant Condition sata4/0 sata-port empty unconfigured ok sata4/1::dsk/c5t1d0 disk connected configured ok sata4/2::dsk/c5t2d0 disk connected configured ok sata4/3::dsk/c5t3d0 disk connected configured ok sata5/0::dsk/c3t0d0 disk connected configured ok sata5/1::dsk/c3t1d0 disk connected configured ok
我不能运行zpool detach rpool c5t3d0s0它怎么知道我的意思?
您可以运行zdb -C rpool来获取每个设备的GUID,然后在detach命令中使用它。
当然,你会看到2个设备具有相同的phys_path,它不显示当前状态,所以你不能100%确定哪个是UNAVAIL磁盘,哪个是在线的。 你可以希望zdb以zpool status (它在我的2路FreeBSD镜像 – / dev / ada2然后/ dev / ada1上)显示磁盘,或者如果你试图删除最后一个剩余的在线磁盘。