我有一个充满电子邮件备份文件的文件夹(来自offlineimap)。 一个这样的文件夹有87k文件,其中68k是在512-1024字节之间。 (这一个文件夹是其余的相当代表。)整个大小分布如下所示: Size bin % by count % by space 512 0.08% 0.00% 1024 77.37% 74.58% 2048 1.65% 1.62% 4096 3.92% 4.05% 8192 6.11% 6.78% 16384 3.68% 4.25% 32768 3.07% 3.66% 65536 1.77% 2.15% 131072 0.75% 0.92% 262144 0.36% 0.44% 524288 0.33% 0.41% 1048576 0.30% 0.37% 2097152 0.21% 0.27% 4194304 0.20% 0.25% 8388608 0.11% […]
首先,快速解释潜在的问题。 我作为系统pipe理员获得了一份新工作,并使用ZFSinheritance了一个文件服务器作为共享数据的基础。 该池包含许多文件系统,但没有卷。 最近在服务器上的Samba共享停止工作,这似乎是一个身份validation问题。 我们正在与提供ADauthentication集成的Centrify合作,找出原因。 当我们等待时,已经有一周了,所以用户变得非常不安,pipe理层已经开始盯着我们,我们一直在想办法以另一种方式分享数据。 我们发现Centrify Samba与Debian 8.4可以正常工作。 在这一点上,我们想build立另一台服务器来临时发出Samba共享。 这第二个服务器将需要连接到主文件服务器。 已经讨论过NFS和iSCSI,但都有问题。 从我的研究中,当NFS挂载通过Samba共享时,NFS具有性能,权限甚至数据validation问题。 它可以工作,但似乎不是最好的解决scheme。 iSCSI另一方面听起来好像很好,但似乎需要ZFS卷而不是文件系统。 所以问题如下。 ZFS文件系统可以用作iSCSI目标吗? ZFS文件系统可以转换为ZFS卷吗? 或者NFS解决scheme在这个临时案例中效果最好?
我遇到了我认为是一个非常奇怪的性能问题 我有一个应用程序处理一些数据,并创build100GB左右的文件。 这运行良好,我可以scp文件closures后,机器。 本地磁盘是ZFS,也许这就是问题所在。 但是,如果我运行另一个mmaps文件的实用程序,并在文件closures之前交换文件的字节,则文件:1)从固态磁盘systat转移得慢得多,也许是50mb / s(或更糟糕) iostat显示了更高的磁盘交易级别。 2)机器的有线存储器穿过屋顶,以容纳70+ GB ARC 70GB的弧,这看起来很荒谬,因为这是本地磁盘存储的四分之一左右。 如果传输后文件被删除,ARC会下降,但有线存储器似乎不会。 任何想法正在发生什么?
我正在开发一个Web应用程序服务,并期望扩展我们的内部服务器。 我们目前的服务器有大约1TB的存储容量。 用户创build每天添加到我们的数据库〜10GB的数据。 正如你所看到的,我们目前的速度,我们只能够维持这个存储增长约100天。 我们预计不久的将来数据创造速度将放缓。 由于信息的性质,我们不打算使用商业云存储(aws,谷歌,微软,软件等) 我们希望构build一个可以不断扩展的服务器基础架构(超过100TB的限制)。 这将是一个渐进的过程,并将跨越多个4U服务器机架。 我的问题是,如果不过度复杂化我们的软件,那么标准的做法是什么? 我已经研究过ZFS和openNAS,但是在集中和不断扩展存储方面似乎有限制。 构build可以不断扩展以支持存储需求的同构存储架构的最佳方法是什么?
我是一个贸易摄影师,我还没有find一种方法,我很高兴归档我的工作。 目前我正在研究使用OpenSolaris构buildNAS服务器,所以我可以使用ZFS。 这样我可以定期拍摄快照并将其发送到离线备份服务器。 关于这样的设置的几个问题。 比方说,我得到一个“NORCO RPC-4020 4U机架式服务器机箱”(Newegg项目编号:N82E16811219021)和三个LSI LSI00151 PCI Express SATA / SAS八端口主机总线适配器 ,性能将会明显好于或差于我得到这个“SUPERICRO CSE-846TQ-R900B黑色4U机架式服务器机箱,带有900W冗余电源”(Newegg,编号:N82E16811152124),只有一个LSI适配器。 我可能会从8个2TB SATA硬盘开始,每次添加8个SATA硬盘。 Supermicro看起来有更好的构build,它有冗余的电源,但它有一个带有AMI MG9072芯片的SC846 SAS背板,我不确定它是否会帮助或损害性能,而不是单独连接每个驱动器。 我付出的代价似乎是平等的。 目前我的在线存储大约是6TB,并且在不断增长。 现在,他们都直接连接到我的电脑上,所以search速度还是很快的,所以去NAS设备上,我不想失去很多的性能。 我也有与此有关的任何build议。 (看起来我只能做一个链接,但是我包含了Newegg Part Number,所以很容易看到我在看什么设备。)
我一直负责为我的小型办公室(约12人)build立备份系统。 我们的大部分产品都在AWS云上,所以我需要备份的是一些小型办公室/开发文件(现在低于100G),以及我们运行的虚拟机和开发,这些文件在1T以下。 我只需要一些可靠,方便,直接的东西。 我对Linux,FreeBSD以及某些程度上的Solaris 10都很熟悉,所以我倾向于使用完整的服务器,而不是使用OpenFiler或FreeNAS的设备系统。 我正在考虑的是一个用于虚拟机的一般存储和夜间备份的小型文件服务器,随后进行到Amazon S3存储服务的异地备份。 这将是通常的每晚增量备份和每周完整备份。 我的问题是如果使用ZFS快照,本地和通过'zfs send [-i]'转储到S3,是一个可行的备份工具? 还是应该坚持使用Duplicity或者其他一些方法? 内部文件服务器/备份机器上的ZFS快照听起来像是提供快速和方便的数据恢复的完美方式,所以我很可能会采取这种方式进行本地冗余。 (如果你们看到依赖ZFS快照的情况会比更传统的归档备份更糟糕,请随时说服我)。但是快照是否足够灵活以便从备份服务器丢失中恢复? 或者我更喜欢更传统的东西? (随意推荐您喜欢的免费或商业备份解决scheme。)
NFSv3当然不支持ZFS ACL,但如果我有以下设置,会发生什么情况? +—————————————–+ +————-+ | FreeBSD ZFS serv1 | NFSv3 | Linux serv2 | | user1: read/write to /zfs/project1 | <——— | user1 | | user2: deny read/write to /zfs/project1 | | user2 | +—————————————–+ +————-+ 已经通过NFSv3在serv1和serv2上安装了ZFS ACL。 题 我假设uers1将能够读/写,因为这是NFSv3世界通常所做的事情。 但是user2会被拒绝吗?
IBM的存储系统以及Linux的mdraid都支持RAID级别1E,因此可以使用奇数个磁盘来实现50%的冗余: 在设置copies=2是否可以达到创build具有奇数个单磁盘vdevs的zpool的效果? 这是如何从pipe理的angular度来看 – 我仍然可以做一个zpool replace来replace磁盘? 在这种设置下,池如何在磁盘发生故障时运行?
我正在使用NFSv3的ZFS存储(FreeNAS 9.1)。 NFS安装在Debian机器上,在那里创build了linux用户(它们不在FreeNAS上)。 我如何启用标准的基于Linux用户的配额? 我想在Debian上获得/设置配额,FreeNAS应该进行会计核算。 这甚至有可能吗? NFSv4会为此提供帮助吗? 如果是的话,我怎么能在FreeNAS上没有相同的Linux用户的情况下挂载一个NFSv4共享。 谢谢
我在Ubuntu 14.04上创build了一个没有指定RAID或冗余选项的ZFS池,向它写了一些数据,重新启动了机器,池不再可用(UNAVAIL)。 我没有确切的错误,但提到没有足够的复制可用。 我在由2个3TB磁盘组成的池中创build了两个数据存储。 ZFS被推荐给我重复数据删除的能力,而我现在不关心冗余。 我其实只想要RAID0,所以在短期内不要镜像或冗余。 有没有办法做到这一点与ZFS或我会更好的LVM? zpool status -v: sudo zpool status -v pool: cryptoporticus state: UNAVAIL status: One or more devices could not be used because the label is missing or invalid. There are insufficient replicas for the pool to continue functioning. action: Destroy and re-create the pool from a backup source. see: […]