未来如何寻找ReiserFS? 审判是否影响了它的受欢迎程度? 这是一个相当主观的问题,所以引用发表的统计/文章会很好。
根据这篇关于Facebook Haystack的文章: “ 由于NAS设备pipe理目录元数据的方式,将数以千计的文件放在一个目录中是非常不够的,因为目录的块图太大而无法被设备有效地caching,因此,通常会有10多个磁盘操作来检索单个图像在将目录大小减小到每个目录的数百个图像之后,所得到的系统通常将继续执行3个磁盘操作来获取图像:一个将目录元数据读入到存储器中,另一个将inode加载到存储器中,阅读文件内容“。 我假定文件系统目录元数据和inode总是会被操作系统caching在RAM中,而读取文件通常只需要1个磁盘IO。 这是NAS设备特有的“多磁盘IO读取单个文件”问题,还是Linux也有同样的问题? 我打算运行一个Linux服务器来提供图片。 任何方式我可以最大限度地减less磁盘IO的数量 – 理想情况下,确保操作系统cachingRAM中的所有目录和inode数据,每个文件读取只需要不超过1个磁盘IO?
我曾经在很多服务器上使用Ubuntu 10.04模板。 从12.04开始,我遇到了一些我现在孤立的问题。 / dev / urandom设备只能由root访问。 这导致SSL引擎,至less在PHP中,例如file_get_contents(https:// …)失败。 它也打破了ruby。 在一个chmod 644后,它可以正常工作,但不会在重新启动时保持不变。 所以我的问题。 为什么是这样? 我看到没有安全风险,因为…我的意思是..想偷一些随机数据? 我怎样才能“修复”它? 服务器是孤立的,只有一个应用程序使用,这就是为什么我使用openvz。 我想像一个运行级别的脚本或其他…但我该如何有效地做到这一点? Maby用dpkg还是apt? vor / dev / shm也一样。 在这种情况下,我完全理解为什么它不可访问,但我认为我可以“修复”它相同的方式来修复/ dev / urandom
我有一个只有128MB内存的小型embedded式设备 连接到这个设备是一个2TB的USB2硬盘 我一直对设备的性能感到非常高兴,直到最近当文件数量已经超过了磁盘容量的阈值已经跨越了一个门槛(我不知道是哪个) 在磁盘上有很多小文件,由于编写应用程序文件的性质以非常均衡的方式组织 – 没有叶节点目录有超过200个文件,并且只有超过800,000个文件。 我希望能find一些可以调查的东西。 磁盘性能大幅下降,该设备相当不错,然后突然性能下降像一块石头。 我的假设是,我为磁盘文件select的组织结构已经损害了索引节点caching的能力。 作为一个实验,我卸下了磁盘(冲洗caching,免费validation)。 然后从命令提示符我深入到目录结构。 所有告诉这个目录(和它的孩子)只有大约3200个文件包含在它下面,在这一点上'免费'显示大于117MB的可用内存 在这一点上,我input命令“查找”,然后“免费” “查找”显示约3000个文件,但内存使用从大约117MB到大约2MB 我了解caching与可用内存的平衡,以及内核如何将空白页面视为不良页面 – 然而,从3000个文件目录中caching的115MB内容指向了我认识的严重缺口。 我希望有人能帮助我理解发生了什么 我可以假设一个平衡的树是有很多文件去的方式吗?
我一直在考虑版本化文件系统。 这是一个杀手级的function,我已经看过Wayback,ext3cow,zfs,保险丝解决scheme,或只是cvs / svn / git覆盖。 我认为ext3cow模型符合我的要求。 透明,高效,但是我可以不用额外的ls abc@timestampfunction。 只要我以某种方式获得自动化,我的文件的透明版本。 它可以是瞬间的,也可以基于10s,30s,1m,5m,15m等间隔的快照。只要能够有效地处理给定目录中的数千个文件的东西都是各种大小,最小的,但是一些超过100米到1GB。 ZFS是不是真正的select,因为我在Linux上(并且宁愿不使用它通过保险丝,因为我已经有一个我想版本的ext3设置,而不是新的东西)。 那里有什么解决scheme?
文件服务器是IT生活中的事实,我很好奇,如果有任何普遍接受的做法(我不愿意在这里使用“最好”一词)如何创build组和申请权限来pipe理客户端访问共享文件夹一个文件服务器。 在我目前的工作中,我最终inheritance了很多不同的方式,从ACL上的几十个组到将各个用户直接放在文件系统上。 我的任务是清理混乱,并在整个公司(大型环境,15万人员,90万台客户端计算机,100多台文件服务器)中提出某种标准化的方法。 从我对这个问题的理解来看,您至less需要每个安全资源所需访问级别为一个组。 这种模式似乎给了最大的灵活性,除非需要支持不同的访问级别,否则不需要再次访问文件系统权限。 缺点是您将创build更多的组,而不是跨多个共享资源重复使用相同的组。 这里是一个例子,显示我的意思: 在名为FILE01的文件服务器上有一个称为“testing结果”的共享,您需要只读访问,读写访问和完全控制的人员。 1个安全资源* 3个访问级别= 3个安全组。 在我们的AD环境中,我们将它们创build为通用组,以便我们可以轻松地添加林中任何域的用户/组。 由于每个组唯一地指向共享文件夹和访问级别,因此组名称包含这些“关键”数据片段,因此权限为: "FILE01-Test Results-FC" — Full Control "FILE01-Test Results-RW" — Read & Write "FILE01-Test Results-RO" — Read Only 通常,我们还将包含内置的SYSTEM帐户和内置的具有完全控制权限的pipe理员。 现在可以使用组成员身份来处理谁实际获得访问此共享的任何更改,而不必访问ACL(通过添加代表特定业务angular色(如经理,技术人员,质量保证分析师等)的“angular色”用户一次性访问)。 两个问题: 1)这实际上是一个处理权限的build议或有效的方法,或者我错过了一些更简单,更优雅的解决scheme? 我会特别感兴趣的是使用inheritance的任何解决scheme,但仍然保持灵活性,在事情发生变化时不必重新ACL大部分文件系统。 2)你如何处理你的环境中的文件服务器权限和组结构? 对于那些也在大型环境中工作的人员的奖励积分。
为什么这两个命令返回不同的结果? lsmod | wc -l 100 ls /sys/module | wc -l 138
我们有一组包含lucene索引的目录。 每个索引是不同文件types的混合(通过扩展区分),例如: 0/index/_2z6.frq 0/index/_2z6.fnm .. 1/index/_1sq.frq 1/index/_1sq.fnm .. (大约有10个不同的扩展名) 我们希望通过文件扩展名获得总数,例如: .frq 21234 .fnm 34757 .. 我已经尝试过du / awk / xargs的各种组合,但是发现这样做很棘手。
我在Linux CentOS服务器上安装了EXT3格式的驱动器。 这是一个Web应用程序数据驱动器,并包含每个用户帐户的目录(有25,000个用户)。 每个文件夹都包含该用户上传的文件。 总的来说,这个驱动器上有大约250GB的数据。 使用所有这些目录构build驱动器是否会影响驱动器的读/写性能? 它是否影响我不知道的其他性能方面? 以这种方式构造事物是否有内在的错误或坏处? 也许只是文件系统的错误select? 我最近尝试合并两个数据驱动器,并意识到EXT3限于32,000个子目录。 这让我想知道为什么。 看起来很愚蠢,我这样构build它,考虑到每个文件都有一个唯一的id,对应于数据库中的一个id。 唉…
你对生产环境中的ext4文件系统有什么看法? 我们非常接近启动我们的项目,这个项目将经常使用数千万更新不是很大的文件,我们需要决定使用哪个FS。 有一段时间我们对其他linux FS的考虑是: Ext3是稳定的,但不太适合处理数百万个小文件 XFS看起来非常好,可能我们会用它 ReiserFS …好吧…模糊的未来,谁最终会修复错误?