Articles of ZFS

USB闪存驱动器作为文件服务器中的引导驱动器

我正在devise一个基于ZFS的文件服务器,我正在考虑使用RAID 1中的USB闪存作为启动设备。 似乎很less有人这样做,我想知道为什么。 从我所看到的,使用USB闪存驱动器有一些好处: 比硬盘和固态硬盘便宜 节省空间和驱动器托架 在这个用例中可能比硬盘具有更高的MTBF 许多服务器都有一个内部USB端口,可以从内部和外部端口启动。 有关MLC闪存如何限制在10k-100k写入周期,可能不够可靠的评论肯定会出现。 我不太关心这个,但也许我应该这样做。 文件服务器不会经常写入操作系统磁盘,只能用于日志等。 Super Talent的闪存驱动器的额定写入周期为10万次。 在RAID 1中有两个,也许在安装3年后replace其中的一个仍然比替代品便宜,我相信它足够可靠。 而使用ZFS,写入错误将被快速检测到。 那么为什么这不是更常见?

将NTFS转换为ZFS(或其他)

将在Linux机器上运行NTFS的硬盘转换为ZFS有什么好处? 有没有办法在Linux上做这样的转换,而不会丢失数据? 在Linux上ZFS的稳定性如何呢,FUSE在这种情况下是否确实工作正常? 人们说,获得真正完整的ZFS支持的唯一方法是安装Solaris。 我明白,Linux的最佳select是ext4,但我真的没有find一种方法如何从NTFS转换到ext4而不牺牲所有的数据。 另一方面,我怀疑使用Linux时从NTFS转换到ZFS是否明智。 感谢您的任何提示。

ZFS – 设置池/文件系统的物理磁盘启动点

我正在testing硬盘性能,并且想要用ZFStesting写入硬盘的外部磁道。 这样做的一种方法是创build一个起点的池/文件系统,距离我的硬盘只有几个Gig。 这可能吗? 如果是这样,我该怎么做? 我已经看过zfs手册页和googlesearch,但找不到我在找什么。 此外,我想以同样的方式仅使用硬盘的最后部分(外部磁道)来创buildRAIDZ1,以便进行性能testing。

Solaris 10 ZFS启动:如何添加启动驱动器的镜像

我有一个正在运行的Solaris 10机箱,其启动/磁盘正在使用ZFS。 我想添加另一个硬盘驱动器,并镜像这个启动驱动器。 当我运行命令我相信是正确的(下面)我得到一个错误: -bash-3.2# zpool add -f rpool mirror c1t0d0 c1t1d0 invalid vdev specification the following errors must be manually repaired: /dev/dsk/c1t0d0s0 is part of active ZFS pool rpool. Please see zpool(1M). 对于如何解决这个问题,有任何的build议吗? 非常感谢,道格

是zfs磁盘腐烂保护自动和内置?

一些演示文稿声明zfs有: zfs可以检测并纠正无提示数据损坏。 例如从这里http://www.eecis.udel.edu/~bmiller/DE-OSUG/ECECIS-ZFS.pdf 但是你需要分配一些空闲的磁盘或zfs池来做手工吗? 或者这是zfs的内在? 单磁盘zfs文件系统是否具有此function,或者您必须获取RAIDZ?

FreeNAS上的可用空间过多 – ZFS

我有一个带有3 x 2到raidz1磁盘的FreeNAS服务器。 我希望有大约4到太空可用。 当我运行zpool list我得到: [root@freenas] ~# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT main_volume 5.44T 3.95T 1.49T 72% ONLINE /mnt 我期待4 To的大小。 此外,由zpool list报告的已用空间与du报告的内容不符: [root@freenas] ~# du -sh /mnt/main_volume/ 2.6T /mnt/main_volume/ 有很多事情我还没有完全理解ZFS。 但目前我主要担心的是我的系统configuration错误,而且我没有任何存储冗余。 我怎么能确定我没有犯下一个可怕的错误 为了完整起见,以下是zpool status的输出: [root@freenas] ~# zpool status pool: main_volume state: ONLINE scrub: none requested config: NAME STATE READ […]

与另一台服务器的ZFS备份build议

我目前有两台服务器都有完全相同的硬件,磁盘等 一台服务器(server1)将成为“主”服务器。 它基本上是一个raidz2服务器,有人连接到它的SMB共享。 另一台服务器(server2)的configuration与server1(raidz2)相同,但仅用于备份server1。 这意味着当我们从服务器1中失去磁盘故障,火灾,水损坏等等时,我们将会进行异地备份。 我试图找出最好的办法做到server2的备份。 起初,我在想像rsync这样的东西。 这在cron中是微不足道的,我可以每周去一次。 或者,我正在想着zfs send / recv。 我的理解是,ZFS可以做“快照”,所以我认为如果能够创build快照/增量备份而不会损失太多空间,这将是非常好的。 我觉得这可能会更难实施/容易出错。 正如我之前所说,两台服务器在硬件和raidz2布局方面configuration相同。 你们都会为我目前的情况推荐些什么?

ZFS池上有多种RAIDtypes

阅读ZFS上的Ubuntu Wiki页面( https://wiki.ubuntu.com/ZFS )我发现了一些ZFS声称的能力,我无法find任何文档。 如果索赔是可能的,我很想知道如何去做 Ari有一个单一的磁盘工作站。 她购买一个新磁盘并将其插入。ZFS自动将新磁盘空间添加到池中。 她的主目录是镜像的,而她的操作系统和临时空间会在后台自动分条。 杰克有三个不同大小的磁盘。 configuration合理的分区和RAID设置完全是试错。 ZFS将这三个磁盘抽象为一个空间池,并在性能和安全性之间取得最佳平衡。 Jack宣称有些媒体目录不需要容错,ZFS在所有磁盘上透明地分条。 这两个引用似乎表明,在一个池中可以混合使用容错区域和高性能区域。 从我读过的每一份文件中都可以看出这是不可能的…其他人是否知道这样做的方法?

企业级RAID直通的ZFS,以及FreeBSD root的ZFS

多年来,我们一直在使用dell供电的单个硬件RAID上运行ZFS。 我知道大多数人都反对,但ZFS的快照/克隆,压缩和灵活分区为我们提供了很好的服务。 每当一个驱动器死亡,一个戴尔技术人员被派遣(服务器在另一个国家),他会确认驱动器有一个黄灯,并将其更换。 现在我们要利用ZFS的L2ARC / ZILcaching,我们正在认真考虑在裸磁盘上运行ZFS。 目前的戴尔RAID控制器(PERC H730 / H330)确实支持pass-through。 我剩下的问题是: 如果驱动器在ZFS上出现故障,它是否在前面板上显示黄灯? 这一点很重要,因为派遣的戴尔技术人员可能需要确认驱动器是否有故障。 否则,我们可能会与戴尔的问题。 有没有人在FreeBSD root上运行ZFS? 它在生产质量? 任何已知的问题?

VM磁盘pipe理的最佳实践

我正在用一个新的机架式服务器取代两个旧的机架式服务器,这个服务器有足够的能力接pipe当前服务器的function。 该服务器是一个4U机架,带有16个3.5“SAS驱动器托架,两个2.5英寸托架,一个Xeon E3-1230v2 CPU和32GB ECC RAM。 我的问题是以下。 我想要一个带有ZFSpipe理磁盘的FreeBSD文件服务器。 但是,我需要其他虚拟机,例如一个shell/ git服务器,邮件服务器等。我想知道如何处理以下问题: 我希望ZFS完全pipe理磁盘,所以我没有使用任何硬件RAID。 我应该直接将SAS控制器作为直通PCI传递给FreeBSD系统吗? 也许只是一个一个的磁盘? 我想最大限度地提高设置的可靠性。 我应该在哪些磁盘上安装虚拟机pipe理程序,以及在哪里放置虚拟机系统映像? 对于(2)我可以select在SAS控制器上进行RAID设置,并使用它作为系统磁盘来存储pipe理程序和虚拟机映像。 但是,这使PCI无法传输到文件服务器。 另一个select是使用两个2.5“的海湾。 build议? 我还没有select使用哪个虚拟化平台,但这不应该有太大的影响。