作为一个概念的certificate,我已经运行了一个freenas盒子几个月,现在似乎所有的可靠性都是明智的。 所以现在是时候提高存储容量并将其build成生产模式。 我打算在硬盘上花费150英镑到200英镑,这本应该让我得到大约3个1TB的硬盘,这将使我在容量和冗余方面达到很好的平衡。 我的问题是这样的:我应该configuration什么样的存储机制来给我提供可以容忍驱动器故障的冗余。 目前我使用FreeNas内置的ZFS支持,没有冗余(带区),但它提供了“镜像”作为一个选项。 我的另一个select(FreeBSD / FreeNAS似乎对它支持的硬件很挑剔)是使用内置的软件RAID-5来提供冗余。 我并没有完全熟悉存储机制,于是我考虑select两个磁盘,一个是主盘,然后在光盘之间做一个日常的Rsync,所以总是有一个冗余副本,但是我意识到这可能是一天之中的一天任何时间的date。 不知道这是什么意思。 感谢您的input。 担。
我的S11服务器有以下configuration: 磁盘#1用于rpool,这是我要添加磁盘#2的根池,以增加已安装文件夹的可用大小,但是我无法将磁盘添加到现有rpool,因为它是根池。 有没有办法让新磁盘可用于“/”文件夹? 我唯一的select是创build一个新的zpool并将其安装在一个新的文件夹下? 谢谢。 RaamEE root@raamee:~# zpool status pool: rpool state: ONLINE status: The pool is formatted using an older on-disk format. The pool can still be used, but some features are unavailable. action: Upgrade the pool using 'zpool upgrade'. Once this is done, the pool will no longer be accessible on older software […]
我的问题特别涉及到ZFS / COMSTAR,但我认为它通常适用于任何iSCSI系统。 是否应该为每个要公开的LUN创build一个目标? 或者,有多个LUN的单个目标是好的做法吗? 两种方法都会对性能产生影响吗? 还有一个交叉点,其他的方法是有道理的吗? 用例用于VM磁盘,其中每个磁盘(zvol)都是一个LUN。 到目前为止,我们已经为每个VM创build了一个单独的目标。 但是包含所有LUN的单个目标可能会极大地简化pipe理……但是我们可能需要每个目标有数百个LUN。 (然后可能有数十个发起者连接到该目标)
可以说,我有一个rpool与etc /作为其中的常规目录,现在我想创build一个单独的zfs rpool / etc,显然inheritance了原来的/ etc中的所有数据。 什么是最恰当和安全的方式呢?
我将从FreeBSD构build一个ZFS文件服务器。 我最近了解到,一旦它成为游戏池的一部分,我就无法展开RAIDZ udev。 这是一个问题,因为我是一个家庭用户,并且可能会在一年中添加一个磁盘。 但是如果我把整个游戏池的副本数量设置为3,并且将各个驱动器放入游泳池中分离出来呢? 我已经读过一些副本,如果可能的话,将尝试分布在各个驱动器上。 那里有保证吗? 我真的只想保护免受位腐烂和廉价的驱动器故障。 速度不是一个问题,因为它会超过1Gb的networking和最stream量的720p播客。 我的数据可以保证从单个驱动器故障安全吗? 有没有我不考虑的事情? 任何和所有的input是赞赏。
在基于Linux的系统下,有没有人对ZFS有更多的经验? 我看到了ZFS熔丝库,但是我不知道它是否值得一试。 稳定,可用? 也许作为存储? 还是只有实验项目?
我正在尝试使用Linux for Oracle Linux(OLE)6.1(Red Hat RHEL 6.1兼容克隆)的ZFS。 我为Oracle Unbreakable Kernel成功编译并安装了spl和zfs 。 Zfs正在工作,我创build了镜像 zpool create -f -o ashift=12 tank mirror sdb sdc 现在我试图分享我的zfs池,如zfsonlinux站点上提到的“tank / nfs”。 zfs set sharenfs=on tank/nfs 所以我创build了tank / nfs并设置了nfs 。 现在我试图在本地主机上挂载nfs共享来testing它 mount -t nfs4 127.0.0.1:/tank/nfs /mnt 但是我得到mount.nfs4: mount system call failed 所以问题是: 如何在OLE上正确共享NFS文件夹或iSCSI卷,并通过Linux上的ZFS与Linux客户端进行挂载。 答案是mount 127.0.0.1:/tank/nfs /mnt
如何构build一个真正的大ZFS文件系统? 上面的问题在一读时含糊不清,所以更精确一些。 我知道如何用一台计算机构build大型的ZFS卷。 例如 用ECC RAM和冗余电源来获得一台好的电脑 得到一些SATA控制器 连接一堆驱动器(例如32x2TB = 64TB) 为每TB存储安装1GB内存(64GB RAM) 为L2ARC安装快速SSD 使用ZFS安装freebsd 调整它 完成。 工作正常,没有任何问题。 但是,如何扩展呢? 是的,我可以安装另一台服务器,但问题是: 如何将两台计算机上的两个ZFS池合并成一个逻辑文件系统? 我需要在整个raidz2卷的networking上安装一个装载量。 或者以另一种forms提出的问题:如何用普通硬盘和标准计算机构build“自制”petabyte ZFS存储? (ZFS是必须的)。 任何指针是受欢迎的。 (我知道Blackblaze的解决scheme,但是是用Linux而不是ZFS)… 这个问题也是这个问题, 150TB并且在增长,但是如何增长? ,但是和我的问题不一样。 Thanx提前..;)
什么是FreeNAS上的ZFS RAIDZ的“热备份”? 我希望这意味着一个额外的连接磁盘,可以自动接pipeRAID中发生故障的磁盘…? 如果是这样,我该如何设置?
假设我使用compression = on创build了一个池,然后想要closures就地压缩 – 是否可能,如果是这样的话? 我在OS X上使用Zevo CE,以防有什么变化(zpool版本为28)。