我想validation两个ZFS文件系统(在这种情况下在不同的池)是相同的。 有没有最好的做法呢?
我有兴趣知道什么是一个PST文件的预期最大重复数据删除率。 我有大约40G的pst文件,大约15美元,附件重复程度高。 我正在运行testing,以查看是否可以通过重复数据删除将数据存储在ZFS上,从而节省大量空间。 为此,我已经安装了Nexenta的testing设置,但是想知道这里的某个人是否已经完成了这个操作,以及我可能期望的重复数据删除级别(换句话说,pst文件对于alignment的敏感程度以及可以使用哪些参数影响比例?)。 初始testing显示非常低的重复数据删除率,我发现块级重复数据删除在这里效率不高,字节级重复数据删除会好很多(并且应该由知道内部组织的应用程序执行),所以我如果有人有更多的投入,只需双重检查。 否则,我可能会将PST文件转换为IMAP。
当我通过SSHloginNexenta机器时,必须input以下命令: nmc@nexenta:/$ option expert_mode=1 nmc@nexenta:/$ !bash You are about to enter the Unix ("raw") shell and execute low-level Unix command(s). Warning: using low-level Unix commands is not recommended! Execute? Yes 我可以login,只是在专家模式已经? 每次这样做都很烦人。 注意:我不想写一个脚本来执行这个每次,这不是真正的解决scheme,我正在寻找。
我有一个存储系统,包含使用4k扇区大小“高级格式”的8个1TB驱动器。 我打算在这个硬件上运行NexentaStor,并且要确保我考虑到4k扇区的大小。 在使用ZFS创build根池和后续数据池时,有什么特别需要注意的?
在写入繁重的Solaris 10服务器(运行安装有MySQL守护程序的多个区域)上运行DTT iotop时,会得到以下输出: UID PID PPID CMD DEVICE MAJ MIN D BYTES 70 26636 1 mysqld sd1 10 64 R 360448 70 25940 1 mysqld sd1 10 64 R 530432 0 5 0 zpool-rpool sd1 10 64 W 17250816 这里困扰我的是zpool-rpool占用了大部分io。 我能做些什么来看看哪个MySQL或其他进程确实占用了IO – 更详细的分解? 如果zpool-rpool表示“写入ZFS”,那么iotop在这里真的不帮我… 🙂 谢谢!
所以我连接到我的FreeNas 7系统的USB驱动器坏了,所以我把这个情况当成了升级到FreeNas 8的机会。现在的问题是,我无法让我的ZFS启动: [root@media] ~# zpool import pool: filetank id: 17702465758427828599 state: FAULTED status: The pool was last accessed by another system. action: The pool cannot be imported due to damaged devices or data. The pool may be active on another system, but can be imported using the '-f' flag. see: http://www.sun.com/msg/ZFS-8000-EY config: filetank FAULTED […]
如果激活了重复数据删除选项的ZFS内存不足,会发生什么情况?
在我的FreeNAS NAS(9.1.1运行zfs v28)上,我在同一个raidz fs中的两个目录之间的文件移动性能非常糟糕。 这是预期的吗? 我怎么能发现,如果不是? 在这种情况下,应用程序是Beets(mp3 mgmt软件),在NAS本身的监狱中运行,所以它不是CIFS性能或networking问题 – 数据不会离开服务器。 所有的软件正在做的是重命名为不同的目录,但性能就好像是复制所有的数据。 系统没有任何特定的负载。 为了以防万一,我实际上停止了在服务器上运行的其他进程来释放一些内存和CPU。 更新:这两个目录在监狱里的同一个挂载点上。 在raidz1游泳池是4 x 2TB SATA驱动器。 无重复数据删除或压缩。 更新2:禁用FS上的时间也没有什么区别(以为我不妨试试看)。 更新3:zfs / zpool输出。 [root@Stillmatic2] ~# zpool status pool: jumbo1 state: ONLINE scan: scrub repaired 0 in 95h19m with 0 errors on Wed Jul 16 23:20:06 2014 config: NAME STATE READ WRITE CKSUM jumbo1 ONLINE 0 […]
我正在阅读关于我的ZFS的L2ARC。 我目前有两个池,一个用于数据,另一个用于Linux容器和虚拟机。 我想要一些帮助L2ARC,我知道如何添加它,但不知道是否会使我受益。 我正在运行带有6-8个LXC容器的Ubuntu 16.04,有时候还有一个虚拟机或两个虚拟机,我想知道是否添加L2ARC将有助于我的虚拟机和LXC容器的性能。 当前设置 pool: black state: ONLINE scan: scrub repaired 0 in 3h57m with 0 errors on Mon Jul 11 04:12:35 2016 config: NAME STATE READ WRITE CKSUM black ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WD10JFCX-68N6GN0_WD-WX91A65P0T3Z ONLINE 0 0 0 ata-WDC_WD10JFCX-68N6GN0_WD-WXA1EA4CSNJF ONLINE 0 0 0 errors: No known data […]
我在一个从FreeBSD 11.0服务器转移到Ubuntu 16.04.2 LTS服务器的两个磁盘上有一个ZFS池(镜像RAID)。 导入池后,我看到: NAME USED AVAIL REFER MOUNTPOINT zroot 993G 790G 104K /mnt/zfs zroot/ROOT 989G 790G 96K none zroot/ROOT/default 989G 790G 989G none zroot/tmp 140K 790G 140K none zroot/usr 3.37G 790G 96K none zroot/usr/home 2.15G 790G 2.15G none zroot/usr/ports 640M 790G 640M none zroot/usr/src 608M 790G 608M none zroot/var 1.66M 790G 96K none […]