我正试图在Solaris 10服务器上启用自动ZFS快照。 从广泛的谷歌search,我已经设法了解有/有一些自动化的服务来做到这一点,如: http://mij.oltrelinux.com/devel/zfsbackup/ 甚至find一个内置服务的手册: http://download.oracle.com/docs/cd/E19120-01/open.solaris/817-2271/6mhupg6oc/index.html 唉,在我正在研究的Solaris上,似乎找不到“时间滑块”服务,也没有其他文章提到的自动快照服务,这应该是内置的,只是启用。 有谁知道我可以如何安装/启用此服务?
比方说,我有一个ZFS文件系统设置为通过CIFS共享给用户,但是ACL被细分到共享的子文件夹中,以便某些用户不能进入。 我们还要说,我正在利用ZFS快照来使Windows用户能够恢复“以前的版本”。 ACL是否仍然将特定用户保留在他们不应该在快照中浏览的位置之外?
我有一个zpool(pool verion 13,FS版本3,名为tank0),在池的根目录中有大约2.5TB的数据(即直接在/ mnt / tank0中)。 OS是FreeBSD,实际上FreeNAS版本是0.7.2。 我想将所有这些数据移动到一个子文件系统(即使用zfs创buildtank0 / work创build的),以符合最佳实践(我现在知道)。 不要太担心保持快照,但我担心确保持续的数据完整性。 我也受到空间限制 – 没有足够的磁盘空间来备份和恢复到新位置。 这可能吗? 引导赞赏。
我正在考虑使用ZFS将备份文件保存到大多数离线的单个驱动器上。 有谁知道如果FreeBSD ZFS实现仍然使用内存,如果重复数据删除池被导出?
我有两台运行FreeNAS的硬件完全相同的新服务器。 每个机箱中有30个4TB驱动器。 每个具有完全相同的zpoolconfiguration(5x 5 4TB驱动器RAIDZ卷,3个备用,镜像日志驱动器,72TB池)。 一台服务器的基准testing速度为1.25Gbps,另一台testing的速度为0.7Gbps。 报告图表显示CPU使用率不同的趋势(对于更好的performance者来说10%以上)和系统负载(performance更差的用户通常会有更高的负载),但内存利用率大致相同。 这两个卷显示健康的状态,关于configuration(hw和sw)的一切都是相同的,因为它看起来像我。 什么可能导致这种奇怪的行为,我怎么去解决问题?
更换我的RAID-Z2池中的两个损坏的磁盘后, zpool status的输出看起来很奇怪。 磁盘的全path寻址,似乎也包含“切片”,而其他所有的磁盘都没有。 我input这些命令来replace损坏的磁盘(这可能解释了奇怪的命名,但不是片): zpool replace bashpool c2t6d0 /dev/rdsk/c2t6d0 zpool replace bashpool c2t7d0 /dev/rdsk/c2t7d0 zpool状态的输出现在报告为: ~$ zpool status -v bashpool pool: bashpool state: ONLINE scan: resilvered 1.01T in 39h31m with 0 errors on Fri Feb 22 10:50:20 2013 config: NAME STATE READ WRITE CKSUM bashpool ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 […]
我在CentOS 6上使用了最新的ZFS( ZFS for Linux )。创build成功的池,一切正常。 但我有一个问题。 我如何设置ZFS文件夹/文件的ACL? GNU ls,chmod等coreutils不支持(?)它。 在我使用的Solaris / OpenSolaris / OpenIndiana / Nexenta上 / usr / bin / chmod \ A = owner @:rwxpdDaARWcCos:fd —–:allow,group @:rwxpdDaARWcCos:fd —–:allow,everyone @:rwxpdDaARWcCos:fd —–:deny / ZFS / FOLDER / 我必须使用CentOS Linux?
(免责声明:这可能是所有其他问题的“时间限制”,我只是现在指出来,而不是牵连它) 我们基础设施的一些基本决定的一部分再一次成为卷/存储pipe理的主题。 我主要在这里谈论本地存储(或者阻止提供服务器无法智能处理的设备)。 刮蹭networking,博客,社区在我看来,BTRFS基本上已经死了,承诺的土地还没有到来,更糟糕的是我看不到项目的整体进展。 ZFS似乎有一个更大的社区,但是Linux的稳定性仍然是我不能相信的。 LVM是大多数人都知道的,但它有自己的一套prolems(快照,RAID的外部处理,…) Ceph是新的孩子,但不是没有大量胶水的存储pipe理。 而且这个系统在复杂性方面还是相当不错的,而最有趣的卖点(CephFS)仍然被标记为“还没有准备好生产” – 但是,嘿有人成为第一个尝试:) GlusterFS看起来不错,但是我们遇到了麻烦的大脑情况,所以我们的信任度相当低 到目前为止,我在这个话题上的地位。 问题是: 在接下来的几年里,如果你今天select,如果约束是Linux,你会使用什么样的存储pipe理? 我个人的重要性是这样的: 强大的社区支持 “简单”的工作(标准任务应该很容易完成后,相对较短的时间适应) 广泛支持不同的发行版(至less.deb 和 .rpm可用) 本地内核支持(或者对现场pipe理员进行低维护) (自从我上次发帖以来,已经很长时间了,所以请把我引导到更好的地方)
有没有一个经验法则,而不是扩大当前创build一个新的zpool? 现在我有100TB,可以扩大与另一个100TB或创build一个额外的。
我们的FreeNAS服务器日志不断充实 Apr 5 15:13:49 Wheelhouse NAS kernel: swap_pager: I/O error – pagein failed; blkno 524312,size 4096, error 6 Apr 5 15:13:49 Wheelhouse NAS kernel: vm_fault: pager read error, pid 1 (init) Apr 5 15:13:49 Wheelhouse NAS kernel: swap_pager: I/O error – pagein failed; blkno 524312,size 4096, error 6 Apr 5 15:13:49 Wheelhouse NAS kernel: vm_fault: […]