我搞砸我的池做zfs发送…收到所以我得到了以下几点: zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 928G 17.3G 911G 1% 1.00x ONLINE – tank1 928G 35.8G 892G 3% 1.00x ONLINE – 所以我有“tank1”池。 zfs get all tank1 NAME PROPERTY VALUE SOURCE tank1 type volume – 哈…我也有“tank1”作为卷…. 所以我想删除音量: zfs destroy tank1 cannot destroy 'tank1': dataset already exists 所以让我删除池…请… zpool destroy tank1 […]
显然,如果整个驱动器死亡,那么单个磁盘上的RAID-Z将无济于事。 但是其他types的错误呢? 根据我的经验,我有时会有一个我无法阅读的文件。 在Mac OS X上,系统将挂起一段时间,然后返回一个错误。 我将该文件移动到某个位置,我认为该文件有一个坏扇区或坏块,或者甚至是整个坏道。 我可以追溯到软盘的日子,手工pipe理磁盘故障只是一个常见的活动。 当然,你可以尽快更换坏软盘,但是有时你不能马上这么做,所以练习就是find坏区,把它分配给一个文件,然后不要删除那个文件。 第一个问题是硬盘如何失败? 我的假设是否有效? 是不是真的糟糕的块坏了,但整个驱动器仍然是主要可用? 如果是这样的话,那么RAID-Z似乎可以使用其他块(区域)的奇偶校验修复坏块或磁盘的坏区。 用例用于备份。 如果我每周将数据推送到一个8TB的驱动器上,那么考虑它是一个7TB的数据驱动器和1TB的奇偶校验是有意义的,希望额外的奇偶校验能帮助我从比特腐蚀,坏扇区或其他本地驱动器故障? 如果理论上没有技术上的缺陷,那么ZFS可以configuration成这样吗? 编辑:我发布这个问题之前,我看到了另一个问题。 将每个分区分组在一起的单独分区是一种select。 但从概念上来说,可能有N个分区的块映射相互交织在一起,这样一个条带在逻辑上将跨越N个分区,在物理上会非常接近。 这是我的问题的要点:“ZFS可以configuration成这样吗? 即只是ZFS …不ZFS与分区欺骗。
我也在Ask Ubuntu上问过这个问题,但是我想我也会在这里尝试。 详情可在以下urlfind: https : //askubuntu.com/questions/304822/how-do-i-get-ubuntu-to-forget-all-about-an-old-zpool 我只是不能让Ubuntu忘记旧的zpool。 它的影响是,当系统启动时,它总是加载这个池:即使它被破坏,磁盘被移除。 加雷思
我有两个来自旧服务器的磁盘,我认为这是一个镜像集。 我把他们放在一个新的服务器,并试图做一个zpool导入,但没有发现。 这是否意味着之前在他们身上的数据已经丢失,或者有什么方法可以重新组合?
来自FreeNAS的zfs驱动器在移动后不会启动。 拉扯磁盘,报废了这个盒子,现在我无法导入任何池。 我已经在我的笔记本电脑上使用了Linux上的zfs和shell中的freeNAS(使用usb / IDE适配器作为磁盘)。 系统抱怨池可能被其他系统使用,给最后访问的机器和date。 导入-f抱怨一个或多个设备当前不可用。 我拧了吗?
我使用ZOL版本v0.6.5.4运行Ubuntu 14.04: root@box ~# dmesg | egrep "SPL|ZFS" [ 34.430404] SPL: Loaded module v0.6.5.4-1~trusty [ 34.475743] ZFS: Loaded module v0.6.5.4-1~trusty, ZFS pool version 5000, ZFS filesystem version 5 ZFS在raidz2中configuration为跨6个2TB希捷SpinPoint M9T 2.5英寸硬盘,具有读caching,重复数据删除和压缩function: root@box ~# zpool status -v pool: bigpool state: ONLINE config: NAME STATE READ WRITE CKSUM bigpool ONLINE 0 0 0 raidz2-0 ONLINE 0 0 […]
我有一个ZFS卷“tank / kvm / webhosting”,通过iSCSI(使用tgt )暴露给KVM guest。 <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='none' io='native' discard='unmap'/> <source dev='/dev/disk/by-path/ip-10.1.200.2:3260-iscsi-iqn.2016-05.bla:webhosting-lun-1'/> <target dev='sda' bus='scsi'/> <address type='drive' controller='0' bus='0' target='0' unit='0'/> </disk> 如何在ZFS上启用空间回收? 来自客人端的工作( fstrim -v / ),但iSCSI / ZFS主机在日志中显示错误: tgtd[324]: tgtd: bs_rdwr_request(227) Failed to punch hole for WRITE_SAME command tgtd[324]: tgtd: bs_rdwr_request(370) io error 0x18086b0 93 -1 0 […]
在zpool中进行了几次磁盘replace之后,这是我的一台Solaris 10服务器 pool: volume state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Wed Jul 6 11:43:51 2016 207M scanned out of 36.7T at 1.48M/s, (scan is slow, no estimated […]
我有一个ZFS文件集有几十个快照的服务器有问题。 早在十一月份,我们收到的文件竟然是另一个组织。 文件内容非常敏感,文件被删除。 但是,在我们删除文件的时候,已经创build了大约42个包含数据或对这些文件的引用的文件集快照。 现在的问题是,我们不得不从快照中删除数据,但我们不想丢失快照的其余内容。 到目前为止,我所读到的关于ZFS快照的一切是,它们是全或无的实体。 您可以创build它们并销毁它们,但不能修改它们以部分删除内容。 事实确实如此,还是有人知道这个解决scheme?
我想通过发出以下命令来replace我的zpool中的磁盘: zpool replace -o ashift=12 pool /dev/mapper/transport /dev/mapper/data2 ZFS开始工作,并重新调整了池。 在这个过程中,旧磁盘上出现了一些读取错误,并在完成之后, zpool status -v如下所示: pool: pool state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://zfsonlinux.org/msg/ZFS-8000-8A scan: resilvered 6,30T in […]