我正在考虑用这样的东西来构build一个: http://www.supermicro.com/products/chassis/4U/847/SC847E26-R1400U.cfm (具有两个双端口多path扩展器的基础) http://www.supermicro.com/products/accessories/addon/AOC-SAS2LP-MV8.cfm (4个8端口普通SAS控制器,每个背板2个) 和36个希捷3Tb SAS驱动器(ST33000650SS) OS – FreeBSD。 这非常有趣: expbs sas背板和多pathconfiguration在freebsd上有多好? 如何在海湾find一个特定的驱动器? (从字面上 – 如何闪烁在freebsd在驱动器上的指标) 如何检测控制器的失败? 它会一起工作吗? 我要求分享任何经验。
我们在我们的文件服务器上使用了大约10TB的文件。 我将build立一个具有更多空间和更好备份的新服务器。 我们有一个包含24个驱动器的SAS盒,连接到OpenIndiana服务器,configuration为11个带有两个备用镜像的驱动器池。 将驱动器池作为iscsi目标直接提供给Windows文件服务器,并将其存储到exsi服务器并将其存储在vmdk磁盘中是否更好?
假设我目前使用rsync来定期将内部驱动器备份到外部驱动器。 外部驱动器通常存储在异地,但是定期通过USB插入并插入,然后手动完成启动rsync的过程。 我是ZFS新手,但是想知道是否可以用内部驱动器和外部驱动器都是RAIDZ池的一部分的设置replace上述过程,这样一旦我安装外部驱动器,它就会启动重新同步。 如果是这样的话,那么在性能方面如何比较rsync和restvering呢? 总的来说,这样的设置有什么缺点吗?
因此,ZFS正在报告一些“读取问题”,所以看起来这个磁盘是失败的,因为我们知道ZFS-8000-9P文档中没有提供任何报告。 这些磁盘是相当新的,我们最近唯一的问题是一个完整的ZFS。 ZFS在LSI MegaRAID 9271-8i上运行,所有磁盘每个磁盘运行“raid 0”。 我不是很熟悉这个RAID卡,所以我find一个脚本,返回从megacli命令行工具派生的数据。 我添加了1个驱动器来显示设置,它们都设置相同。 (系统盘不同) zpool状态输出 pool: data state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device […]
在我们公司,我们在多台服务器上有很多的kvm客户端,大多数客户端运行的是Ubuntu 16.04以及他们的主机系统。 select的文件系统成为EXT4,为客户和主机。 最近我使用了BTRFS提供的一些非常棒的快照function来设置增量备份的备份服务器。 一些研究提供了一个从不使用BTRFS的KVM主机的线索,因为FS的碎片减慢客户端,直到他们最终甚至冻结。 在KVM客户端上是否有build议/不要使用BTRFS? 我们正在重新考虑客户和主机的FSselect,使用XFS比EXT4(客户机/主机还是单方面)有优势?
这就是我正在寻找的:NAS存储/备份解决scheme(硬件/软件组合) RAID冗余 全盘encryption以确保安全 快照function(多个/常规快照) 它必须负担得起(<1000美元),而不需要大量的编码和手动操作来维护例如快照。 有什么build议么?
我有一个4个组合驱动器的大型ZFS池。 现在,文件系统无法挂载: pool: tank state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-3C scan: none requested config: NAME STATE READ WRITE CKSUM tank UNAVAIL 0 0 0 insufficient replicas c10t0d0 […]
我在Linux机器上有3个相同的内部7200 RPM SATA硬盘驱动器。 我正在寻找一个存储设置,这将给我所有这一切: 不同的数据集(文件系统或子树)可以具有不同的RAID级别,因此我可以select性能,空间开销和不同数据集的风险权衡,同时拥有less量物理磁盘(非常重要的数据可以是3xRAID1,重要数据可以是3xRAID5,不重要的可重复数据可以是3xRAID0)。 如果每个数据集都具有明确的大小或大小限制,则可以扩大和缩小大小限制(如果需要,可以离线) 避免使用内核模块 R / W或只读COW快照。 如果是块级快照,则在快照过程中文件系统应该同步并停顿。 能够添加物理磁盘,然后增大/重新分配RAID1,RAID5和RAID0卷以利用新的主轴,并确保没有主轴比其他主轴热(例如,在NetApp中,将RAID-DP RAID组扩展了几个磁盘将不会在没有明确的重新分配的情况下平衡它们之间的I / O) 不需要,但不错: 透明压缩,每个文件或子树。 如果像NetApps一样首先分析数据的可压缩性并仅压缩可压缩数据,则更好 重复数据删除不具有巨大的性能损失或需要大量内存(NetApp在周末会执行重复数据删除,这很好) 对ZFS等无提示数据损坏的抵制(这不是必需的,因为我从来没有看到ZFS报告这些特定磁盘上的数据损坏) 存储分层可以是自动的(基于caching规则)或用户定义的规则(是的,我现在拥有全部相同的磁盘,但是这将使我可以在将来添加读/写SSDcaching)。 如果是用户定义的规则,则这些规则应该能够在文件级别而不是块级别上升级到SSD。 节省空间的小文件打包 我在Linux上试过ZFS,但是限制是: 升级是额外的工作,因为该软件包位于外部存储库中,并与特定的内核版本绑定; 它没有与包pipe理器集成 写入IOPS不会随着raidz vdev中的设备数量而扩展。 无法将磁盘添加到raidz vdevs 无法在RAID0上select数据,以减less开销并提高性能,而无需额外的物理磁盘或为ZFS提供磁盘的单个分区 LVM2上的ext4看起来像一个选项,除了我不能分辨是否可以收缩,扩展和重新分配到新的RAIDtypes的逻辑卷(当然,我可以在一堆文件上试验LVM)。 据我所知,它没有任何好的东西,所以我想知道是否有更好的东西。 我曾经看过LVM的危险和警告,但是再一次,没有一个系统是完美的。
我有一堆使用光纤通道连接的(旧) NetApp DS14MK2磁盘arrays 。 我不会把它们用在任何关键的东西上,而是把它们作为单独的JBOD for Linux(XFS)或者Solaris / OmniOS(ZFS)使用,而不是把它们扔掉。
我有一个build在Nextenta上的NAS,已经有一段时间了。 不过,我希望升级NAS来运行Solaris Express 11,因为我的公司IT部门提供了更好的支持,并得到了Oracle的直接支持。 我目前有两个zpools,包含操作系统的syspool和包含所有数据的“tank”。 运行升级到最新的Solaris 11 Express最简单的方法是什么? 我可以运行安装程序并在第一次启动时检测并导入现有的“tank”zpool吗?