我有一个ZFS池 – 一个包含2个vdevs的镜像 – 在FreeBSD服务器上运行。 我现在只有一个来自镜像的磁盘,我试图从中恢复文件。 ZFS数据位于磁盘上的GPT分区中。 当我尝试导入池时,没有任何迹象表明它存在。 我尝试了一些方法,但没有任何反应。 我已经在分区上运行zdb -lu ,并且似乎find了标签。 # zpool import # zpool import -D # zpool status no pools available # zpool import -f ztmp cannot import 'ztmp': no such pool available # zpool import 16827460747202824739 cannot import '16827460747202824739': no such pool available 分区信息: # gpart list da0 Geom name: […]
我目前正在build立一个新的存储服务器,用于虚拟机,文件和备份。 OS是FreeNAS,它使用ZFS作为软件RAID。 我的问题是,我需要select硬盘,我已经看过消费者和企业硬盘,但我面临着一个没有答案的问题,我一直没有find明确的答案。 我是否可以使用ZFS(软件RAID)不支持TLER / ERC / CCTL的消费类硬盘,而不用担心后来有麻烦,还是需要使用支持TLER / ERC / CCTL的企业级硬盘? 关于这个有很多不同的意见,有人说你应该使用它,有些人说你不应该这样做。 我知道一些依靠软件RAID的操作系统,有自己的错误更正超时,因此不在乎是否有TLER / ERC / CCTL。 我知道,在处理硬件RAID时,你需要使用TLER / ERC / CCTL。 我真的希望,有人可以解决我的问题。 谢谢。
我在哪里可以find有关IO如何在zfs数据集之间分配的统计信息? (zpool iostat只告诉我一个池有多lessIO正在经历。) 所有相关的数据集都是通过NFS使用的,所以我也很高兴每个导出的NFS IO统计信息。 我们目前正在运行OpenIndiana [编辑] 看来,操作和字节计数器在kstat中可用 kstat -p unix:*:vopstats_??????? … unix:0:vopstats_2d90002:nputpage 50 unix:0:vopstats_2d90002:nread 12390785 … unix:0:vopstats_2d90002:read_bytes 22272845340 unix:0:vopstats_2d90002:readdir_bytes 477996168 … …但奇怪的hexID号码必须从/etc/mnttabparsing(更好的想法?) rpool/export/home/jkj /export/home/jkj zfs rw,…,dev=2d90002 1308471917 现在写一个munin插件来使用数据…
我有一个VMware ESXi 4.1服务器,我最近添加了2个1TB SATA驱动器。 这台机器运行一个托pipeZFS文件系统的NexentaStor社区虚拟机。 在添加新驱动器之前,所有ZFS磁盘都驻留在位于硬件RAID10上的服务器的Vmware数据存储中的虚拟磁盘(VMDK文件)内。 新的SATA驱动器没有硬件冗余,所以我的目标是将它们直接连接到NexentaStor虚拟机,并创build一个RAID1 zpool。 我按照这些说明使用vmkfstools -z /vmfs/devices/disks/idnumber RDM1.vmdk -a lsilogic为新的SATA驱动器创build了两个物理RDM文件vmkfstools -z /vmfs/devices/disks/idnumber RDM1.vmdk -a lsilogic 在将两个RDM磁盘添加到虚拟机并在其上创build一个raidz1 zpool后,我开始将数据复制到zpool。 游泳池被脱机,我被告知有数以千计的校验和错误。 我搜查了网页,发现一些人抱怨同样的情况。 ( 示例 )我已经放弃使用RDM,并创build了两个数据存储和两个930GB的VMDK文件,我将它们放在一个RAIDz1中。 不过,我想知道我哪里错了。 网上有很多人说他们有这个configuration工作。 我使用RDM而不是VMDK的目标是: 赋予虚拟机监视SMART状态的能力 允许ZFS访问整个磁盘(因为我知道这些不会用于其他任何事情) 如果变坏的话,使驱动器容易变热 允许我删除这些驱动器,并将其放在另一个ZFS服务器,如果我需要 我计划在本周晚些时候将要安装的全新ESXi 5.1服务器中使用相同的设置。 在这种情况下,#4特别重要,因为我想将现有的zpool添加到新的VM。 为什么我得到这些校验和错误? 它与ESXi 4.1有关吗? 有什么我做错了吗? 编辑:我已经创build了与VMware ESXi 5.1相同的设置,到目前为止没有问题。 我要testing这个非常彻底,但到目前为止,这似乎是一个ESXi 4.1的问题。
我已经在我的Centos 7中安装了ZFS(0.6.5),而且我也创build了一个zpool,除了重启后我的数据集消失之外,一切正常。 我一直试图在各种在线资源和博客的帮助下debugging这个问题,但无法得到预期的结果。 在重新启动后,当我发出zfs list命令时,我得到“没有可用的数据集” ,而zpool list给出了“没有可用的池”在做了大量的在线研究之后,我可以通过使用zpool import手动导入caching文件来使其工作, c cachefile ,但仍然必须在重新启动之前运行zpool set cachefile = / etc / zfs / zpool.cache Pool ,以便稍后在重新启动后导入。 这就是systemctl status zfs-import-cache样子, zfs-import-cache.service – Import ZFS pools by cache file Loaded: loaded (/usr/lib/systemd/system/zfs-import-cache.service; static) Active: inactive (dead) cat /etc/sysconfig/zfs # ZoL userland configuration. # Run `zfs mount -a` during system start? ZFS_MOUNT='yes' […]
我有一个服务器有8个磁盘托架,里面装满了3TB的磁盘。 每个使用2个磁盘的4个镜像vdevs,这给了我12TB的冗余存储。 这就是问题所在 – 我在某处读到,我需要“每TB重复数据的x GB内存”(释义)。 我愚蠢地认为,如果我的池中大部分数据不能被重复的话,就不会使用太多的内存。 令我沮丧的是,通过“重复数据”,他似乎意味着池中所有已经启用了重复数据删除的数据。 结果是我的系统最近开始locking,可能是因为内存不足,需要重新设置。 当我意识到自己的错误时,我想我可以通过创build一个禁用了去重复数据的新数据集来修复它,将所有数据复制到新数据集中,然后销毁旧数据集。 幸运的是,我只填充了大约35%的游泳池。 在尝试这之前,我禁用了所有数据集上的重复数据删除。 不幸的是,任何时候我试图从旧的数据集中删除一些东西,我的系统上的所有16个线程都会达到100%,所有24 GB的内存突然被填满(我通过htop看到这个),然后我的系统被locking。 有没有什么办法可以把我自己从这个洞中挖出来,而不会破坏我的整个泳池并重新开始?
在ZFS文件服务器上实现LTO磁带备份系统的最佳方式是什么? 我有大约6TB需要每天备份,以及现有的HP 1840 LTO4磁带机和一堆磁带。 我已经有了ZFS每天做自动快照,但是现在想要为此添加一层离线存储。 理想情况下,由此产生的系统将执行某种父/子轮换系统,所以我每天都有差异磁带,并且每周都有完整的备份。 仔细阅读,我已经看到有些人使用了zfs send / dd / tar的组合来达到这个目的,但是我不清楚应该如何实现。 更新 我刚刚阅读了关于zfs send -i应该发送两个不同的快照之间的增量。 虽然我害怕这整个练习可能会让我写一些脚本,这应该使差异备份任务更容易一些。 仍然不知道如何通过脚本处理磁带更改。
我在我们的一个系统上得到了一堆新的磁盘,并想将一个现有的池转移到它们上面,所以我做的是这样的: zfs snapshot -r old-pool@replicaton zfs send -R old-pool@replication | mbuffer -m 1G | zfs receive -F -d new-pool 但是在操作过程中,我收到了zfs send的警告,抱怨说快照old-pool/some/fileset@replication不存在… 当我去调查时,我发现确实zfs snapshot -r忽略了在old-pool/some/fileset上创build一个快照。 所以我跑了 zfs list -r -o name old-pool | \ xargs -n1 perl -e 'system "zfs","list",$ARGV[0]."\@replication"' 发现有大约10%的文件集没有这个快照。 然后我开始单独创build缺less的快照,并且工作正常。 我已经重复了这个实验,又发现了同样的问题。 任何想法如何可以? 这发生在omnios r151010上
我有一个ZFS服务器8个zpools。 每个池都是10 + 2 RAIDZconfiguration中的12个6TB磁盘。 因此,每个池的原始存储空间为12 * 6 = 72 TB,可用空间为10 * 6 = 60 TB。 但是,当我使用zfs list与使用zpool list来查询它时,我看到了不同的结果,如下所示: # zfs list NAME USED AVAIL REFER MOUNTPOINT intp1 631K 48.0T 219K /intp1 intp2 631K 48.0T 219K /intp2 intp3 631K 48.0T 219K /intp3 jbodp4 631K 48.0T 219K /jbodp4 # zpool list NAME SIZE ALLOC FREE EXPANDSZ […]
以一个条纹镜像(Raid 10)为例,如果两个磁盘扩展到四个,那么两个磁盘之间的数据如何在两个镜子之间“重新平衡”(展开)呢? 也就是说,如何将写入一个镜像的文件写入两个镜像以利用条带化磁盘?