戴尔PE 2900:Xeon 5110 – 2P,12 GB RAM,8x 300 GB 15K硬盘,Perc 5i + 256 MB高速caching 在服务器和主机上需要多less额外的h / w? 1GB以太网卡,1GB交换机? 有4个ESX服务器可以连接到这个存储服务器(iSCSI或NFS) 什么是软件推荐? OpenSolaris的? Nexenta社区版? FreeNAS的? 欣赏指南,教程的任何链接。 马鲁蒂
在AWS上提供大型,可扩展的共享存储的可接受/合理/最佳方式是什么? 目前,我们正在制作1TB的EBS卷〜双周和NFS导出no_subtree_check和nohide。 在此设置中,不同的导出出现在客户端上的一个挂载下。 这种安排并不好。 我们考虑的选项: LVM2与ext4。 resize2fs太慢了。 Linux上的Btrfs。 尚未准备好黄金时段。 Linux上的ZFS。 没有明显的黄金时间准备(尽pipeLLNL使用它) Solaris上的ZFS。 这个组合的未来是不确定的(对我来说)和新的操作系统 glusterfs。 听到大多是好的,但两个可怕的(也许是老?)的故事。 理想的解决scheme将提供共享,单一的视图,易于扩展,快照和复制。 感谢分享想法和经验。
我有一个通用的服务器,为许多用户提供邮件,DNS,Web,数据库和一些其他的服务。 它有一个3.40 GHz的Xeon E3-1275,16GB ECC RAM。 运行Linux内核4.2.3,使用ZFS-on-Linux 0.6.5.3。 磁盘布局是2个希捷ST32000641AS 2 TB驱动器和1个三星840 Pro 256 GB SSD 我有一个RAID-1镜像中的2个HD,SSD充当caching和日志设备,全部在ZFS中pipe理。 当我第一次build立这个系统时,它非常快。 没有真正的基准,只是…快。 现在,我注意到极端的减速,特别是在保存所有maildirs的文件系统上。 做一个每晚备份需要90分钟,只有46 GB的邮件。 有时候,备份会造成极大的负载,导致系统在长达6小时内几乎无响应。 我在这些减速过程中运行zpool iostat zroot (我的池被命名为zroot ),看到的写入量为100-200kbytes / sec。 没有明显的IO错误,磁盘似乎没有工作特别困难,但读取几乎不可能慢。 奇怪的是我在另外一台机器上也有相同的体验,使用类似的spec硬件,但没有运行FreeBSD的SSD。 它工作好几个月,然后以相同的方式缓慢。 我怀疑是这样的:我使用zfs-auto-snapshot创build每个文件系统的滚动快照。 它创build15分钟,每小时,每天和每月的快照,并保持每个周围的一定数量,删除最老的。 这意味着随着时间的推移,每个文件系统上已经创build并销毁了数千个快照。 这是唯一可以考虑的累积效应的文件系统级操作。 我试图销毁所有的快照(但保持进程运行,创build新的),并没有发现变化。 是否有不断创build和销毁快照的问题? 我发现让他们成为一个非常有价值的工具,并且被认为是(除了磁盘空间)或多或less的零成本。 还有别的可能导致这个问题吗? 编辑:命令输出 zpool list输出: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zroot 1.81T […]
我开始创build了16个10亿字节的空文件: for i in {1..16}; do dd if=/dev/zero of=/mnt/temp/block$i bs=1000000 count=1000 &> /dev/null; done 然后我创build了越来越大的RAIDZ2卷,迫使ashift = 12模拟4K扇区驱动器,例如 zpool create tank raidz2 -o ashift=12 /mnt/temp/block1 /mnt/temp/block2… 然后使用df -B1进行比较来查看实际大小。 Filesystem 1B-blocks tank 12787777536 我的结果: +——-+————-+————-+————+————+ | disks | expected | actual | overhead | efficiency | +——-+————-+————-+————+————+ | 3 | 1000000000 | 951975936 | 48024064 | 95.2 […]
情况: 运行OmniOS r151018(95eaa7e)服务器的文件服务器上的一个文件服务器发生以下奇怪的问题,通过SMB到Windows和OS X来宾。 通过SMB共享中的“另存为…”(Save as …)对话窗口保存某些文件(.docx,.xlsx,一些图像)会导致滞后大约3到5秒,应用程序根本没有响应,文件正常保存。 问题确实发生在“过夜”,而对服务器没有做任何事情,但很难确定确切的date,因为用户投诉只是在第一次发生之后的某个时间才出现。 重新启动服务器之后,镜像根池中的一个vdev不可用,但仔细检查未在设备上发现任何故障,并将其重新连接到池。 问题仍然存在。 一些观察: 它发生在所有Windows 7客户端上 它发生在所有文件大小 它发生在这台机器的所有份额上,不pipe权限如何 在另一台服务器上通过iSCSI从主机上导入的存储速度更快 GBit以太网正常复制速度为110 MB / sec 数据和根池似乎没有问题 它不会发生在其他文件服务器上 当文件保存在本地时不会发生,然后通过资源pipe理器复制 它不会在OS X上发生(只能用OpenOffice进行testing) dmesg显示了几条NOTICE: bge0: interrupt: flags 0x0 – not updated? 具有各种价值,但这也是如此,没有任何伤害 更多的理念/计划: 由于没有明确的错误信息可能会被发现,因此我可能需要对原因进行一些反复试验。 我会考虑一些事情( 结果用斜体表示 ): 将Broadcom网卡replace为Intel卡=>没有什么区别 用SATA固态硬盘替代根池(目前SLC内存U盘可以正常工作3年以上) =>没有任何区别 检查两者之间的networking(硬件,通过直接连接到服务器) 使用WireShark进行stream量捕获:如果您不确切知道自己在找什么,就很困难 恢复到以前的OmniOS引导环境/版本以排除软件冲突=>没有什么区别 回滚Windows / Office更新以排除错误 从快照中删除文件名为(冒号)的文件名,由ewwhite =>创build的reddit线程上的txgsync提示没有任何区别 当Windows“早期版本”function启用包含“:”字符的自动快照时,我看到类似于此的东西。 只需用这个拍摄风,但可能值得一看,因为在Windows文件名中不允许使用“:”字符。 监视文件访问:如shodanshok所build议的,我使用DTrace和此脚本来监视文件访问。 我在保存已读文件时使用了它,删除了无关的输出和个人信息,结果围绕着三个文件: CPU […]
从Solaris 10 ZFS v22复制到FreeBSD 8.3 ZFS v28是否安全? 有没有人使用ZFS的特定版本来完成这个工作?
我思想上有点分裂。 我正在考虑为我的公司获得一个NAS,我们需要它为我们的VMware服务器。 最初的想法是购买NAS(Netgear ReadyNAS) 但后来我从社区(ServerFault)得到了一些build议,从服务器build立一个NAS,并使用像NextentaStor,Openfiler或FreeNAS的东西。 我已经取消了Openfiler的几个原因,我现在离开Nexentastor和FreeNAS之间。 我遇到的问题是FreeNAS是否可以用于生产环境。 FreeNAS是否足够成为VMware的iSCSI后端? 我最后一次使用FreeNAS的版本是0.7。 我们将使用Nexentastor社区而不是付费版本。 任何见解都会很棒。
我想用freebsd 9和zfsbuild立一个服务器。 我有一些旧的硬件(8 GB的RAM四核英特尔)躺在周围,我愿意购买两个或三个1 TB磁盘。 我也有一个dlink RAID服务器,里面有两个1TB的磁盘,我可能会停止使用,所以一旦我移动了它们的数据,这两个硬盘就可以在zfs服务器上使用了(目前约300MB在RAID 1)到新的服务器。 所以在开始的时候给我2到3个磁盘,一旦我成功地设置了zfs服务器并复制了数据,就可以移动到4或5个磁盘。 我的问题是如何最好地设置zfs池,以便我拥有最大的冗余和存储空间,在未来可以移动到2个或3个或更大的驱动器时可以使用。 所以我不在乎速度那么多,我猜测我的以太网(即使在1gb / s)将成为系统速度的决定性因素。 我目前的想法是购买2个新磁盘,使用条纹模式进行设置。 一旦我复制了我的dlink NAS中的所有数据,我将删除其中的一个驱动器,并将其添加到池中,使其成为新驱动器之一的镜像。 一旦arrays被重build,我会把另一个驱动器移到池中,这样它就映射到第二个新驱动器……在完成所有工作之后,我应该有相当于RAID 10的“条纹镜像”。 这是可能的,还是有更好的方式来设置呢? 同样,我的重点是最大冗余,维护(用较新/较大的驱动器交换旧驱动器,增加我的总池空间),可用存储空间和速度; 以该顺序。
一般的经验法则是不要使用超过80-85%的容量,否则性能会急剧下降,而其他不好的事情可能会发生。 在一个8TBarrays上,这个空间必须保持在1.6TB左右。 40TBarrays将需要大约8TB的可用空间! 这仍然是数组较大的惯例吗? 我在桌子上留下太多的磁盘空间吗?
我正在尝试使用4个裸驱动器来build立一个ZFS池,我已经通过一个SATA热插拔底板连接到了我的Ubuntu系统。 这些是日立SATA驱动器。 当列出/dev/disk/by-id ,我看到每个驱动器有两个条目: root@scorpius:/dev/disk/by-id# ls | grep Hitachi ata-Hitachi_HDS5C3030ALA630_MJ1323YNG0ZJ7C ata-Hitachi_HDS5C3030ALA630_MJ1323YNG1064C ata-Hitachi_HDS5C3030ALA630_MJ1323YNG190AC ata-Hitachi_HDS5C3030ALA630_MJ1323YNG1DGPC scsi-SATA_Hitachi_HDS5C30_MJ1323YNG0ZJ7C scsi-SATA_Hitachi_HDS5C30_MJ1323YNG1064C scsi-SATA_Hitachi_HDS5C30_MJ1323YNG190AC scsi-SATA_Hitachi_HDS5C30_MJ1323YNG1DGPC 我知道这些是相同的驱动器,因为我记下了序列号,而此系统中的所有其他驱动器都是Seagate或WD。 例如,第一个序列号是YNG0ZJ7C。 为什么每个驱动器都有两个条目? 更重要的是,当我创build我应该使用的ZFS池时, scsi-一个还是ata- ?