什么是FreeNAS上的ZFS RAIDZ的“热备份”? 我希望这意味着一个额外的连接磁盘,可以自动接pipeRAID中发生故障的磁盘…? 如果是这样,我该如何设置?
我刚刚从FreeNAS 0.7.2升级到NAS4Free 9.1,并导入了一个旧的ZFS池。 Freenas使用ZFS v15,而Nas4free使用v28。 我想在升级之前稍微等一下,但是之前有一个我想插入的新光盘。 我想知道是否有可能有一个旧的磁盘zpool v15和configuration一个新的磁盘zpool v28? 据我了解升级发生在“池”,所以我相信这应该是可能的?
raid-z1上有一个运行ffs的zfs。 为了安全我虽然增加了平等。 足够的空间可用。 有没有可能将zfs raid-z1升级到raid-z2或raid-z3? thx为您的帮助
我只是build立一个有TB级驱动器的FreeNAS服务器。 我想在每台机器上只有一个硬盘驱动器,所以我一直在尽可能多地获取数据并通过局域网发送给FreeNAS。 我注意到至less有一个文件没有正确复制,现在已经损坏了。 (我也注意到一些奇怪的权限问题,但那是另外一个问题。)现在,大部分数据都在FreeNAS服务器上完成了,是否有一种自动的方式来validation没有其他东西是损坏的? 我不完全确定如何描述文件是如何损坏的。 基本上它似乎是一个178兆字节的video文件,但当访问它播放,甚至移动,访问它的Windows机器给了一个通用无法访问错误消息。 我使用FreeNAS的networking复制界面移动文件,一旦移动,文件是76兆,无法播放。
我有一个服务器与ESXi 5和iSCSI连接的networking存储。 存储服务器在8.0.4版本的Raid-Z中有4x1Tb SATA II磁盘。 这两台机器通过千兆位以太网相互连接,与其他设备隔离。 中间没有开关。 SAN盒本身是1U超微型服务器,具有3GHz的Intel Pentium D和2G内存。 磁盘连接到集成控制器(英特尔?)。 raid-z卷分为三个部分:两个zvols,与iscsi共享,一个直接在zfs之上,与nfs和类似的共享。 我ssh进入freeNAS框,并在磁盘上做了一些testing。 我用dd来testing磁盘的第三部分(直接在ZFS之上)。 我从/ dev / zero复制了一个4GB(2倍的RAM)块到磁盘,速度是80MB / s。 其他的iSCSI共享zvols是ESXi的数据存储。 我做了类似的testing与time dd ..在那里。 由于dd没有给出速度,我把时间转移的数据量除以time 。 结果是大约30-40 MB / s。 那大约是freeNAS主机的一半速度! 然后,我testing了在同一ESXi主机上运行的虚拟机上的IO。 虚拟机是一台轻巧的CentOS 6.0机器,当时并没有做任何事情。 当时没有其他的虚拟机在服务器上运行,而磁盘arrays的另外两个“部分”未被使用。 类似的ddtesting给了我约15-20 MB / s的结果。 这又是下一个结果的一半左右! 当然这是raid-z – > zfs – > zvolume – > iSCSI – > VMFS – > […]
只是好奇使用FreeNAS或OpenFiler优于Ubnutu的NAS盒子。 这是可靠性,性能,两者?
我正在使用Freenas 8.2,并决定升级到9.2。 所有似乎进展顺利,升级zfs到28,并重新启动。 在下次启动时,似乎需要一直持续,在某个时候,我决定closures机器。 我想这是造成这个问题的原因。 当我尝试导入时,我得到以下内容: [root @ freenas]〜#zpool导入 池:vol4disks8tb id:12210439070254239230 状态:FAULTED 状态:该池最后一次被另一个系统访问。 操作:由于设备或数据损坏,无法导入池。 该池可能在另一个系统上处于活动状态,但可以使用导入 '-f'标志。 请参阅:http://illumos.org/msg/ZFS-8000-EY configuration: vol4disks8tb FAULTED损坏的数据 raidz2-0在线 gptid / 3d316d16-f53e-11e1-9da5-080027dfca8a在线 gptid / 3df02143-f53e-11e1-9da5-080027dfca8a在线 gptid / 3eb99e55-f53e-11e1-9da5-080027dfca8a在线 gptid / 3f91c723-f53e-11e1-9da5-080027dfca8a在线 [root @ freenas]〜# 编辑:命令“zpool import -f”,“zpool import -f -F -n”和“zpool import -f -F”返回与前一个命令完全相同的输出。 编辑#2:命令“zpool import -f 12210439070254239230”返回 无法导入'vol4disks8tb':I / O错误 从中销毁并重新创build池 一个备份源。 […]
我们基于FreeNAS 8的100TB NAS由于停电而意外关机。 打开后,100TB zpool“projects”被卸载,状态为“FAULTED”。 我已经试过zpool import -fFX ,它运行了大约20个小时,但没有发生任何事情。 我已经用重置button重新启动服务器,因为kill -9和重新启动命令不起作用。 一些输出: [root@Projects_new] ~# zpool import pool: projects id: 8560768094429092391 state: FAULTED status: The pool metadata is corrupted. action: The pool cannot be imported due to damaged devices or data. The pool may be active on another system, but can be imported using the '-f' […]
我正在考虑为家庭build立一个NAS。 这将是一个简单的文件,打印机,运行FreeNAS的 rsync和bit-torrent服务器。 服务器将有两个3.5“SATA驱动器,我打算使用软件RAID1镜像它们。 我有两个问题: 我应该使用哪个文件系统,默认的UFS或ZFS? 据我所知,各种博客文章ZFS的内存和CPU都很饿,是否可以与威盛C7兼容? 我喜欢ZFS快照的想法,但如果要求太高,我可以不用他们。 我目前有两个驱动器:640GB和1TB。 如果我在RAID-1中使用它们,则总arrays大小将是两个磁盘的最小大小,即640GB。 现在就这样好了,但是如果我在一年内得到一个1.5TB的新驱动,会发生什么呢? RAIDarrays应该重build,当我用新的最小的驱动器,但将有可能从640GB增长到新的最低 – 1TB,而不会丢失数据? 谢谢你,如果我提出微不足道的问题,我很抱歉。 更新:为了回答第二个问题, 本博客文章解释了在更换其中一个驱动器后如何增长RAID1分区。
我有一个运行4个虚拟机的VMWare Workstation。 Windows Server 2012 R2 域控制器 。 另外WS2012 R2,“ WS1 ”,成为一个集群的一部分。 “ WS2 ”,从“WS1”系统提供。 FreeNAS (也尝试NAS4Free ,这是更好)与运行的iSCSI目标 。 我的目标是创build一个集群,并与SQL Server上玩。 我有… 使用iSCSI启动器工具将此FreeNAS驱动器添加到“WS1”的驱动器。 格式化它,并分配一个驱动器号,然后脱机。 然后,我还在“WS2”上添加了驱动器。 在networking上线后,它已经得到一个驱动器号,并显示为格式。 接下来,我把它放在离线。 所以这两个机器上的驱动器都是在线的 但是我尝试创build一个集群,无论我做什么,这个驱动器都不会显示在Storages中。 有时我会收到有关驱动器不可用的警告,并提出运行Clear-ClusterDiskReservation的build议。 即使我这样做,testing以后只是说Test cancelled 。 另外,以后驱动器不能在WS1和WS2上使用 。 在任何服务器上线后,它都会显示为RAW。 这似乎只能通过重新启动FreeNAS服务器来解决。 那么,我做了什么来使整个事情工作? 我已经试过这些教程,但不幸的是,一切都很顺利。 http://www.ekzorchik.ru/wordpress/2012/12/server2008-failover-cluster-iscsi-freenas/ http://www.sysprobs.com/setup-windows-2008-cluster-vmware-workstation