这是一个x86 Solaris 11.1安装。 我有两个zfs池R500和rpool 我想将R500从500GB的磁盘升级到2TB,然后使用500GB的磁盘作为root rpool磁盘来replace320GB的磁盘。 我分离了其中一个rpool磁盘,并在对SMI标签和分区进行分类之后附加了一个500GB的磁盘,因为它认为它在R500池中正在使用。 它恢复正常,但不会启动挂在BIOS中的validationSMI池。 Grub装载了剩余的320GB磁盘,但挂在SunOS旗帜上,认为500GB上的引导块丢失,但320GB上有一些损坏。 所以我删除了两个磁盘,并插入分离的(并且不变的320GB磁盘)启动罚款。 我已经附加了500GB的磁盘,这是重新弹性,但在“zfs状态rpool” 它显示320GB的磁盘是不可用和联机的,我猜它是指从同一端口删除旧的320GB。 但是,我现在如何分离这个不可用的磁盘? 这种方式重新启动后,我不能做几个小时,直到rpool重新安装和启动块安装。 root@opensolaris:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT R500 464G 402G 61.8G 86% 1.00x DEGRADED – rpool 298G 213G 85.2G 71% 1.00x DEGRADED – root@opensolaris:~# zpool status rpool pool: rpool state: DEGRADED status: One or more devices is […]
我知道ZFS保留1.6%的磁盘空间进行写入。 不过,我输的不止这些。 我有一个安装了本机ubuntu-zfs的ubuntu服务器。 服务器有45个驱动器,每个3TB。 我制作了三个raidz2arrays,每个arrays有15个驱动器: #zpool create data raidz2 /dev/sd[bp] raidz2 /dev/sd[qz] /dev/sda[ae] raidz2 /dev/sda[ft] # zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT data 122T 1.52M 122T 0% 1.00x ONLINE – # zfs list NAME USED AVAIL REFER MOUNTPOINT data 1.25M 98.7T 335K /data 3000000000000 bytes * 15 * 3 = 122.78 […]
我有一个很大的问题,我的rpool已经满了,所以当我启动的时候,我的shell中有很多“没有设备空间”。 没有办法logging,SSH服务器closures。 所以我决定用opensolaris Live cd和mount rpool启动,使用这些主题: 打开印第安纳的话题 这一个: Orcale博客 但是我无法安装rpool / ROOT / solaris,因为我无法执行此命令行: zfs set mountoint=/a rpool/ROOT/solaris 因为我有一个zfs不能设置属性“空间不足” …我卡住了… 另一个奇怪的事情,它的zpool导入-f -R / a rpool成功,当我launcg df -g我可以看到山,它告诉我,48G是使用100%的capacity.But当我ls -al / a只有等和出口空目录。 没有文件,没有什么我可以删除,以腾出空间。 我真的不知道该怎么做,任何帮助都会很棒。 最好的祝福,
我有一个3ware 9650SE-8LPML有问题的服务器。 我可以login到服务器,但接口不断重置导致整个系统locking几分钟。 我的主机怀疑它的RAID卡造成的问题。 他们没有库存的3ware 9650SE-8LPML,现在他们问我是否可以放入3ware SAS 9750-8i。 数据丢失的潜在风险是什么? 如果不起作用,他们能否在晚些时候join3ware 9650SE-8LPML,否则数据将永远损坏? 服务器使用的是Freebsd 7.3,在整个raid中也是一个ZFS集群。
我有一台运行ZFS的FreeBSD 8.x机器和一台3ware 9690SA控制器。 3ware控制器显示其中一个磁盘的ECC-ERROR: //host> /c0 show VPort Status Unit Size Type Phy Encl-Slot Model —————————————————————————— p0 OK u0 279.39 GB SAS 0 – SEAGATE ST3300657SS p1 OK u0 279.39 GB SAS 1 – SEAGATE ST3300657SS p2 OK u1 931.51 GB SAS 2 – SEAGATE ST31000640SS p3 ECC-ERROR u2 931.51 GB SAS 3 – SEAGATE […]
我有一个运行MySQL 5.5的Solaris 10 x86_64系统。 在使用时间过长的情况下,数据库的响应速度非常缓慢:查询运行速度缓慢,通常在亚秒级时间内返回。 CPU利用率在60-70%的范围内。 平均负荷平均达到20多岁,很less到40多岁,我已经看到了50多岁。 (启用了HyperThreading的两个四核CPU)它就像I / O问题一样,就好像在磁盘上等待写入一样,但是我没有看到任何实际的I / O问题。 平均磁盘等待时间始终为0,平均等待队列在0.2-0.3范围内,磁盘繁忙百分比偶尔会爬入15%区域。 (所有这一切按照萨尔。) 存储是两个SAS驱动器的5个zdev镜像的zfs zpool。 我没有一个意图的日志设备,但我不认为这是这个工作量的问题。 我错过了什么?
NexentaStor有一个方便的性能分析界面,作为某些dtrace脚本的前端。 它可以监视设备的实时IOPS或I / O吞吐量。 不幸的是,这个接口在几分钟后超时,留下一个空白统计屏幕并重新设置图表。 有关如何防止这个问题的任何build议?
很多半相关的post,但没有解决这种情况。 我拿起了一个基于LSI SAS1064E-IR的HP控制器。 我用一个-IT固件刷了它,东西看起来有些不错。 除了我在这个系统中有一个SAS扩展器,这样我可以在这个控制器上获得4个以上的设备。 该卡中的SAS实用程序表示,它最多可以支持24个设备。 但是,当它连接到SAS扩展器时,不会检测到任何设备。 有几篇文章select了各种各样的控制器来使用,这些控制器可以在IT模式下运行,所以目标以JBOD的方式呈现,主要是在FreeNAS安装下的ZFS支持。 由于驱动器底板背面的miniSAS接口,我的12bay服务器机箱要求使用扩展器。 由于空间限制的情况下,我只能使用一个低调适配器,然后扩展器是必要的。 那么,任何人都可以确认他们在IT模式下使用的控制器是否已成功用于SAS扩展器?
我有FreeBSD 8.0,在zfs scrub运行的时候重启。 现在,当系统启动时,ZFS版本和ZFS池版本将暂时冻结。 我甚至无法login。 问题:重新启动后,擦洗是否继续,我需要等待完成或出现错误? 我的系统从单用户模式启动,但没有zfs。 我只是认为,即使ZFS磨砂膏继续我将loginpromt。 谢谢你的时间
我无法使用NFS导出文件夹。 / etc / exports中 /storage/test -maproot=nobody client /storage/test1 -ro -maproot=nobody client /storage/test2 -ro -maproot=nobody client 第一个文件夹testing工作正常,另外2我得到这个错误: Jul 18 11:10:40 server mountd[6499]: bad exports list line /storage/test1 -ro -maproot Jul 18 11:10:41 server mountd[6499]: can't change attributes for /storage/test1: Invalid radix node head, rn: 0 0xfffff80092530100 文件系统是ZFS RAID Z2。