我正在寻找可能使用Server 2012R2中的存储空间来构build一个NAS。 我正在寻找build立一个相当大的单位,12-14硬盘,在“RAID10”像设置(我知道存储空间不做RAID10,但也有类似的东西),与SSDcaching。 而且我期待在未来可能挂钩另一个外部JBOD机箱,为“RAID5-6”类似的设置。 我不打算做减压或重复数据删除。 我的问题是,我想要什么样的硬件? 一个小至强或Opteron能够处理它吗? 或者我应该拍摄一个更大的2.4GHZ + Xeon 4核心HT或12核心Opteron,甚至是双重cpus? 系统需要多less内存才能获得最佳性能? 我一直在寻找微软的Storage Spaces设置的硬件指导方针,但我一直无法find任何东西,所以如果有人知道一些请告诉我正确的方向。 我正在考虑使用FreeNAS或另一种基于Linux的替代scheme来设置这些单元,但是我部门的大多数IT专业人员几乎没有Linux经验,如果遇到公交车,他们更愿意使用基于Windows的解决scheme可能。 同样的道理,任何人都知道FreeNAS或其他Linux NAS备选schemeVS的性能比较。 Windows Server 2012 R2存储空间?
一般的经验法则是不要使用超过80-85%的容量,否则性能会急剧下降,而其他不好的事情可能会发生。 在一个8TBarrays上,这个空间必须保持在1.6TB左右。 40TBarrays将需要大约8TB的可用空间! 这仍然是数组较大的惯例吗? 我在桌子上留下太多的磁盘空间吗?
我有FreeNAS公开NFS。 我如何从Windows 7访问? 我在Windowsfunction中启用了“NFS服务”。
我正在搭build一个带有4G内存和16个SATA热插拔托架的Supermicro X6DHE-XB 3U机箱中基于FreeNAS的服务器。 它配备了2×8端口的3Ware RAID卡,但是我正在计划使用ZFSfunction而不是硬件RAID。 我的初始驱动集将是8x2TB HITACHI Deskstar 7K3000 HDS723020BLA642驱动器。 如果我使用的是基于硬件的RAID,则会在驱动器出现故障的驱动器托架上亮起红灯。 驱动器出现故障时,它如何与ZFS协同工作? 我不认为有任何担保sda = bay1,sdb = bay2等,那么如何确定哪个驱动器需要更换? ZFS能否报告给SATA控制器打开“故障驱动器”指示灯? 它只是报告驱动器序列号? 如果硬盘发生故障,不能报告序列号? 我想这是一个好主意,记下每个驱动器的序列号以及在您上线之前所在的哪个托架。 是否还有其他“预生产”任务可以在未来更轻松地更换驱动器?
我遇到了一个bug,那就是web ui(lighthttpd)可能会冻结并使服务挂起。 有没有简单的方法来通过terminal重新启动这项服务?
我有一个4x 2TB的WD RE4-GP驱动器的RAID服务器(4TB可用)的NAS服务器。 我的空间不足(剩余空间less于1TB)。 我有$ 0花费更大/更多的驱动器/机箱。 我喜欢我所读到的关于ZFS的数据完整性特性,它们本身就足以让我从现有的XFS(软件)RAID10切换。 然后我读了ZFS的RAID5的高级实现,所以我想我甚至可以使用RAIDZ-1在交易中增加2TB的可用空间。 但是,我一直在阅读越来越 多的 post,说永远不要使用RAIDZ-1。 只有RAIDZ-2 +足够可靠地处理“现实世界”驱动器故障。 当然,就我而言,RAIDZ-2没有任何意义。 在单个池中使用两个镜像的vdevs会更好(RAID10)。 我疯了想要使用RAIDZ-1 4x 2TB驱动器? 我应该只使用两个镜像vdevs池(本质上是RAID10),并希望压缩给我足够的额外空间? 无论哪种方式,我打算使用压缩。 我只有8GB的内存(最大),所以重复数据删除不是一个选项。 这将在FreeNAS服务器上(即将取代当前的Ubuntu操作系统),以避免ZFS-on-Linux的稳定性问题。
我运行FreeNAS 8,我的电脑有一个从停电的硬重置,现在每次我尝试启动时,我得到以下错误信息: Error Message: panic: zfs_replay_acl_v0:898: unsupported condition 我使用ZFS文件系统版本4(ZFS存储池版本15)运行ZFS。有关如何解决此问题的任何想法?
我计划使用两个2 TB驱动器和两个1 TB驱动器来build立一个FreeNAS ZFS池。 我想以某种方式有数据冗余。 我看了这篇文章似乎build议我的两个select是使用RAIDZ丢失1TB每2TB的驱动器或使用这个命令(这是数据冗余所需空间的两倍): zfs set copies=2 poolname 有没有更好的方法来处理这个问题,而且更像是Drobo的超越RAID或者Netgear的XRAID? 或者,我可以将每个2tb驱动器分成1个分区,并将两个分区放在池中?
我需要更换FreeNAS zpool上的坏磁盘。 zpool status显示 pool: raid-5×3 state: ONLINE scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014 config: NAME STATE READ WRITE CKSUM raid-5×3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada5p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0 ada8p2 ONLINE 0 0 0 ada10p2 ONLINE […]
我有两台运行FreeBSD变种的服务器:一台是pfSense路由器,一台是FreeNAS 8服务器。 这两个服务器都运行SNMP,我正在使用第三台Cacti服务器收集和绘制他们的信息。 来自pfSense服务器和FreeNAS服务器的SNMP数据不包括内存使用情况,CPU使用情况和平均负载情况。 pfSense服务器的stream量图看起来很好。 FreeNAS服务器的磁盘使用情况报告看起来很漂亮。 我只是没有得到任何数据的内存使用情况,CPU使用率,也没有负载平均。 我知道这两个服务器应该能够提供这些数据,因为在pfSense和freeNAS的networkingpipe理员中,我可以查看图表。 但是我更愿意在Cacti中拥有所有的图表,以便于pipe理。 如何让我的pfSense服务器通过SNMP提供内存使用情况,CPU使用情况和Load Average数据? 我如何让我的FreeNAS服务器通过SNMP提供内存使用,CPU使用率和Load Average数据? 我假设相同的程序将适用于两台服务器。