我一直在使用Ubuntu 12.10,32GB RAM(非ECC,生产系统将具有ECC)和一个2x2TB Linuxpipe理的RAID1(将移至RAIDZ1进行生产)的机器上对ZFS进行实验。 我刚刚在2TB软RAID1设备上创build了储jar,启用了压缩和重复数据删除function,并存储了几百GB的数据。 我得到了大约3.5倍的重复数据删除比率(对我的数据来说真的很有意义,这就是为什么我想使用它),但是根本没有剩余的内存,系统变得无法使用。 重新启动系统,一切似乎都很好,然后我写了几GB的数据,一样的东西。 然后我把zfs_arc_max设置为12GB(因为显然我不是唯一一个有内存消耗不足的人),这样可以避免系统变得没有响应,但是写入内存极限并写入内存极限的几GB变得非常慢,基本上无法使用。 我知道,重复数据删除需要内存,但据我所知,这 DDT-sha256-zap-duplicate: 615271 entries, size 463 on disk, 149 in core DDT-sha256-zap-unique: 846070 entries, size 494 on disk, 159 in core DDT histogram (aggregated over all DDTs): bucket allocated referenced ______ ______________________________ ______________________________ refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE —— —— —– —– —– […]
我有一个带有RAID-Z 10TBarrays的FreeBSD文件服务器(所以8TB可以使用2TB冗余)。 我试图找出如何让系统通知我,最好是通过电子邮件,如果其中一个驱动器失败。 这是因为机器没有屏幕,很less直接login。 我想要一个通知,因为否则我们唯一的暗示,有什么地方出了问题是当第二个驱动器去,并与它的数据。
我有7个磁盘的4个arrays中的28个2TB磁盘(56T)池。 由于它是raidz1(〜RAID5),我希望每个arrays中有1个磁盘用于奇偶校验,所以结果体积应该是2TB * 4 *(7-1)= 48TB,对不对? 现在,我在我的系统上看到: $ zpool list volume NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT volume 50.5T 308K 50.5T 0% 1.00x ONLINE – $ zfs list volume NAME USED AVAIL REFER MOUNTPOINT volume 2.00T 40.3T 75.8K /volume $ df -h /volume Filesystem Size Used Available Capacity Mounted on volume 42T 75K […]
我想在HP P410硬件RAID 5 4x600GB 15k SASarrays上运行freenas,并在物理磁盘出现故障时收到警报 ,但是freenas文档说: 为防止出现问题,如果您的磁盘由RAID控制器控制,则不要启用SMART服务,因为控制器的工作是监视SMART,并在驱动器出现故障时将其标记为预测性故障。 由于机器安装在无人值守的数据中心中,因此控制器无法警示任何正在降级的RAIDarrays。 SMART似乎是一种select – 也许物理磁盘故障会在数组级别显示为高“重新分配扇区数”? 注:我考虑的其他选项,但被拒绝的是:使用RAID-Z(保证<1.2TB)或RAID 10(1.2TB)的笨哑HP H220 HBA,但都不提供RAID 5(1.8TB)的容量,我没有任何备用驱动器托架(HP DL120 G7)。 另外,似乎没有BSD的HP代理。 上下文:我有一对这些服务器来重新configuration(主和复制 – 总共8个磁盘),他们通过iSCSI提供SQLServer和其他虚拟机。 更新:我要走下去的cciss路线( 这里是我如何在FreeNAS 9.x上安装cciss )。 其他可能性:以太网上带外pipe理的RAID控制器。
我的任务是为我们的老化文件服务器提供NAS替代服务,目前正在使用XFS运行Linux(使用LVM)。 我们是一个非常小的5人公司,所以我们使用商品硬件(2GhzCore2,8GbRAM和大约4TB价值的硬盘为新的版本)。 我正在研究OpenSolaris(我来自Debian / RHEL背景),并且非常喜欢我所看到的ZFS,但是我想安装OpenSolaris的无头版本的基本版本。 这意味着没有X,Gnome或任何gui的应用程序,但我无法find一个办法。 从本质上讲,我们使用这个“一体式”框来说明以下内容: NAS / FileServer,现在大约2TB,我们所有的Win32主机(很多大的PSD / Premier文件! Subversion托pipe我们的源文件 VMWare服务器(现在1.0)用作Windows 2003和其他操作系统的部署。 另一个盒子是我们的网关(OpenBSD),可以处理DHCP等,我只需要这个盒子来托pipe我们的内容,在几个虚拟机(单独的Glassfish安装)中运行我们的持续集成(TeamCity,Confluence和Jira),并运行Windows 2003 instancese SQL Server。 您是否认为我可以安装OpenSolaris(而不是Nextena)的削减版本,并将其用于ZFS的爱和设置Xen作为我们的虚拟需求的虚拟化pipe理器? 我意识到8Gb内存可能不够,它会很快被撞到16。 我只是有点迷失在想知道为什么我们必须有GNOME的OpenSolaris安装:(
现在我有一个带有ZFS和NFSv4的FreeBSD主机。 它被复制到另一个FreeBSD盒子进行备份。 对我来说重要的ZFSfunction是 软件RAID6 快照或一些其他复制方式到另一台主机 配额 ACL 更换发生故障的磁盘而不使主机脱机 题 在CentOS 6上可以用XFS或GlusterFS做相同或相似的设置? 更新 硬件是 Supermicro CSE-847E16-R1400LPB机箱,36个HS托架 Supermicro H8DG6-F AMD Dual G34主板 AMD Opteron 6320,2.8GHz 8核8MB二级caching6400MT 64GB RAM和128GB交换 每个主机在RAIDZ2中有36 * 3TB空间,所以100TB可用和50TB使用。 它认为这是Ubuntu客户端可能会导致重读的主机崩溃。 现在有〜5个NFS客户端。 没有阅读caching。 除了启用巨帧之外,没有NFSv4调优 echo 'kern.ipc.nmbclusters="32768"' >> /boot/loader.conf echo 'kern.ipc.maxsockbuf=16777216' >> /etc/sysctl.conf echo 'net.inet.tcp.sendspace=262144' >> /etc/sysctl.conf echo 'net.inet.tcp.recvspace=262144' >> /etc/sysctl.conf echo 'net.inet.tcp.rfc1323=1' >> /etc/sysctl.conf echo 'net.inet.tcp.sendbuf_max=16777216' […]
我在一个ZPool中有6个磁盘的SuperMicro 2U服务器上运行。 我想用FreeBSD中的一个工具运行命令来识别每个驱动器托架。 有没有办法做到这一点? 我知道如果驱动器在RAID卡上运行,我可以使用RAID卡实用程序来识别每个磁盘,但在我的情况下,没有硬件RAID。 有没有在FreeBSD或Linux中执行此操作的工具?
我用ZFSonlinux使用MongoDB(我相信它是mmapped数据库)有巨大的性能问题。 我们的Mongodb几乎只是写道。 对于没有ZFS的副本,磁盘完全忙于〜5秒的峰值,当应用程序每30秒写入一次数据库,并且两者之间没有磁盘活动时,我将其作为基准行为进行比较。 在使用ZFS的副本上,磁盘始终处于繁忙状态,副本持续跟踪MongoDB主节点。 我在所有副本上都启用了lz4压缩function,节省的空间非常大,所以应该有更less的数据打到磁盘上 所以在这些ZFS服务器上,我首先有默认的recordsize = 128k。 然后我擦除数据,并设置recordsize = 8K,然后再同步Mongo数据。 然后我又擦了一遍,试着logging= 1k。 我也尝试logging= 8K没有校验 尽pipe如此,它并没有解决任何问题,磁盘总是保持100%的繁忙。 在logging大小= 8k的服务器上只有一次,磁盘比任何非ZFS复本less得多,但是在尝试不同的设置并再次尝试recordize = 8k后,磁盘是100%,我看不到以前的良好行为,并不能在任何其他副本上看到它。 而且,应该几乎只有写入,但是看到在不同设置下的所有副本上, 磁盘完全忙于75%的读取,只有25%的写入 (注意,我相信MongoDB是mmap数据库,有人告诉我在AIO模式下试用MongoDB,但是我没有find如何设置它,而在另一个运行MySQL InnoDB的服务器上,我意识到ZFSonLinux不支持AIO。 我的服务器是CentOS 6.5内核2.6.32-431.5.1.el6.x86_64。 spl-0.6.2-1.el6.x86_64 zfs-0.6.2-1.el6.x86_64 #PROD 13:44:55 root@rum-mongo-backup-1:~: zfs list NAME USED AVAIL REFER MOUNTPOINT zfs 216G 1.56T 32K /zfs zfs/mongo_data-rum_a 49.5G 1.56T 49.5G /zfs/mongo_data-rum_a zfs/mongo_data-rum_old 166G 1.56T 166G /zfs/mongo_data-rum_old #PROD 13:45:20 […]
我对ZFS没有真正的经验,对于Solaris和FreeBSD的经验非常有限 。 在阅读了大量有关ZFS的文章之后,我相当确信ZFS是我想用于我的家庭磁盘arrays(16-20个磁盘)的东西。 我试图在Solaris和FreeBSD之间做出决定。 我没有真正的偏好,但我不知道两者之间的差异。 有人可以指出一个操作系统的差异或好处/优势吗? 编辑: 为了避免“脱离主题”,我将重新提出我的问题: Solaris(或FreeBSD)在ZFS支持方面有什么特点? 在Solaris和FreeBSD之间, 在ZFS方面是否存在显着的性能差异?
我一直在看Openfiler,它似乎是一个伟大的开源解决scheme。 我没有看到关于OF的限制的很多文档。 我们绝不是财富500强公司(还:)所以我们目前的预算是相当小的,但我希望听到你的意见! 我们的存储服务器由6TB(12 x 500GB),AMD 2.4(2x),8GB RAM组成,目的是作为我们的VMWare存储。 虚拟机将由Web服务器,QB服务器以及可能的小规模邮件组成。 只是想听听你的想法,因为除了戴尔的SANpipe理软件,我没有任何经验。