我find了一个版本列表及其Solaris版本号http://download.oracle.com/docs/cd/E19253-01/819-5461/appendixa-1/index.html 我知道你可以通过用更大的驱动器replace驱动器或者添加新的驱动器或镜像到池中来增长一个池。 我听说ZFS不支持通过移除驱动器/镜像来支持收缩池。 但是这可能已经改变了。 哪个版本(如果有的话)发布了缩小池的能力?
是否有可能拆分zfs克隆,以允许原始快照被销毁? # zfs create zpool1/test1 # zfs snapshot zpool1/test1@snap1 # zfs clone zpool1/test1@snap1 zpool1/test1clone # zfs destroy zpool1/test1@snap1 cannot destroy 'zpool1/test1@snap1': snapshot has dependent clones use '-R' to destroy the following datasets: zpool1/test1clone # 此时,它想'实现'zpool1 / test1clone文件系统,就好像我已经执行了zfs send zpool1/test1@snap1 | zfs receive zpool1/test1clone zfs send zpool1/test1@snap1 | zfs receive zpool1/test1clone 。
我有这个zpool: bash-3.2# zpool status dpool pool: dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM dpool ONLINE 0 0 0 c3t600601604F021A009E1F867A3E24E211d0 ONLINE 0 0 0 c3t600601604F021A00141D843A3F24E211d0 ONLINE 0 0 0 我想用一个(更大的磁盘)replace这两个磁盘。 可以这样做吗? zpool attach允许我replace一个物理磁盘,但是它不会允许我一次replace两个物理磁盘。
我有一台使用FreeBSD和ZFS的家庭服务器,在过去的5年里运行良好,有几次我成功地更换了有故障的磁盘。 然而,今天发生了一场小小的灾难,我希望find一个解决办法。 我有一个由3个vdevs组成的顶级池,每个vdevs都是一个raidz1池,所以最多3个磁盘可能会失败 – 假设它们全部属于不同的vdevs – 并且数据完整性完好无损。 昨天,我注意到1个vdev中的1个磁盘报告了很多错误。 从以往的经验来看,这通常表示磁盘即将失败,所以我做我平时做的事情: 离线磁盘:zpool离线jargpt / ta4 物理replace磁盘 使用gpart设置新磁盘,然后使用zpoolreplacetank gpt / ta4 但是,这一次在步骤2和步骤3之间发生了灾难:当我在安装新驱动器后启动服务器时,我闻到了一些燃烧的东西,而我的HBA指出有4个驱动器不可用! 由于难以置信的运气不好,一定有一些电压浪涌,因为同一个vdev(gpt / ta2)中的另一个驱动器现在已经完全死亡,目视检查显示PCB上的一个MOSFET被烧断。 所以现在gpt / ta2是UNAVAIL,gpt / ta4是OFFLINE,显然vdev是raidz1,也是UNAVAIL。 我的问题是:1)有没有办法让gpt / ta4重新联机? 当我尝试发布“zpool online tank gpt / ta4”时,它告诉我游泳池不可用,所以我不能这样做。 我可以理解为什么会这样,但我认为gpt / ta4虽然遇到一些读取错误,但在离线之前基本上仍然是raidz1池的“好”成员(zpool状态报告没有已知数据错误)。 有没有办法做到这一点? 2)否则,有没有办法使我的顶级池(其中包含3个raidz1 vdevs)的剩余部分在线? 其他2个vdevs都很好。 请帮忙,我有很多宝贵的资料:-) 提前致谢。
我打算build立一个freenas服务器,想确定我能用这样的魔法和先进的zfs做些什么。 如果我在RAIDZ中有5 * 3TB的磁盘(总共12TB的存储空间),现在我正在试图添加另一个2 * 3TB磁盘到这个现有的arrays。 问: 我能够做到这一点,而不会影响/触摸RAIDZ卷上的任何现有数据? 拿走一些现有的磁盘呢? 假设从5个磁盘中取出1个磁盘,假设raidz上只有非常小的一部分数据。
我正在使用FreeNAS构build一个ZFS数据服务器。 我有足够的硬盘空间(4x2TB)几年,但如果在路上,我想扩大这一点,我可以build立另一个4xHD池? 我需要单独的数据集为第二卷,或者我可以扩大现有的?
在我们的FreeNAS服务器上, zpool status给我: pool: raid2 state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: http://www.sun.com/msg/ZFS-8000-9P scrub: none […]
鉴于: 一个或多个可用的Dell PowerEdge 2950服务器 希望使用Nexenta或Solaris部署ZFS iSCSI存储 ZFS使用软件RAID 戴尔的PERC 5 RAID控制器不支持JBOD 呈现单磁盘RAID 0arrays来代替JBOD是不可取的 题: 我想用Solaris和/或Nexenta支持的SAS控制器replacePERC。 你有任何个人build议? 这是否与现有的背板兼容? 外置(MD1000)机箱呢? 你有没有真正试图用戴尔服务器做到这一点? 你有什么其他想法,build议,或从个人经验的智慧?
有谁知道有多less用户ACL的ZFS可以处理? 换句话说:有多less用户可以为同一个目录设置这样的ACL? setfacl -m user:test1:rwxpDdaARWcCos:fd—-:allow /mnt/project1 或者估计也会很好。 比如说我们在说100,500,1000还是更多? 更新 121不是FreeBSD 9上的一个bug。 ZFS ACL限制为1024。 FreeBSD的ACL限制是254。 FreeBSD的NFSv4 ACL限制大约是254的一半。 请参阅/sys/sys/acl.h
我知道这不是一个苹果比较,我试图评估哪一个更安全 – 不太可能丢失数据。 Joyent的SmartOS使用ZFS来存储数据,而EC2机器可以使用在S3上存储其数据的Amazon Elastic Block Store(EBS )。 我想知道什么是使这两个系统可靠的一些build筑细节? 我不太清楚S3的devise是否有多个位置来存储数据。