我有一个400GB的磁盘和一个320GB的ext4分区。 我想扩大ext4分区使用左边的空间(80GB的可用空间)。 +——————————–+——–+ | ext4 | Free | +——————————–+——–+ 我怎么能这样做? 我见过使用resize2fs但是我不明白它是否调整了分区大小。 另一个解决scheme是使用fdisk但我不想删除我的分区和松散的数据。 我怎么能简单地增加分区而不丢失任何文件? 注意:我正在讨论一个没有LVM的未装入的数据分区,我有备份,但是我想避免在恢复上花费一些时间。
最近版本的RHEL / CentOS(EL6)为我十年来所依赖的XFS文件系统带来了一些有趣的变化。 我花了去年夏天的一部分时间来追查一个XFS稀疏文件的情况,这是由于文档logging不完善的内核backport造成的。 自从转到EL6以来,其他人有不幸的performance问题或不一致的行为 。 XFS是我的数据和增长分区的默认文件系统,因为它提供了比默认的ext3文件系统更好的稳定性,可扩展性和更好的性能。 2012年11月,EL6系统上的XFS出现了一个问题。我注意到,即使在空闲时,我的服务器也显示出非常高的系统负载。 在一种情况下,卸载的系统将显示3+的恒定负载平均值。 在其他情况下,负载上有1+的颠簸。 挂载的XFS文件系统的数量似乎影响负载增加的严重程度。 系统有两个活动的XFS文件系统。 升级到受影响的内核后,负载为+2。 深入挖掘,我在XFS邮件列表中发现了一些线程,指出xfsaild进程处于STAT D状态的频率增加了。 相应的CentOS Bug Tracker和Red Hat Bugzilla条目概述了这个问题的具体情况,并得出结论:这不是一个性能问题; 在2.6.32-279.14.1.el6以上的内核中报告系统负载时只有一个错误。 WTF?!? 在一次性的情况下,我明白负载报告可能不是什么大问题。 尝试使用您的NMS和数百或数千台服务器进行pipe理! 这在2012年11月在内核2.6.32-279.14.1.el6 EL6.3下被确定。 内核2.6.32-279.19.1.el6和2.6.32-279.22.1.el6在随后的几个月(2012年12月和2013年2月)发布,没有改变这种行为。 自从发现这个问题以来,甚至还有一个新的操作系统的次要版本。 EL6.4已经发布,现在在内核2.6.32-358.2.1.el6上 ,它performance出相同的行为。 我有一个新的系统构build队列,必须解决这个问题,要么在2012年11月发布的EL6.3版本上locking内核版本,要么只是不使用XFS,selectext4或ZFS , 严重的性能损失针对运行在顶层的特定自定义应用程序。 所涉及的应用程序在很大程度上依赖于某些XFS文件系统属性来解决应用程序devise中的缺陷。 在红帽支付知识库网站的背后,出现了一个条目: 安装内核2.6.32-279.14.1.el6后观察到高负载平均值。 对于每个XFS格式的设备,xfsaild进入D状态导致高负载平均值。 目前还没有解决这个问题。 目前正在通过Bugzilla#883905进行跟踪。 解决方法将已安装的内核程序包降级到2.6.32-279.14.1以下的版本。 (除了在RHEL 6.4上降级内核不是一个选项…) 所以我们有4个多月的时间来解决这个问题,而EL6.3或EL6.4操作系统版本并没有真正的解决scheme。 有一个build议修复EL6.5和内核源补丁可用…但我的问题是: 当上游维护者打破了一个重要的特征时,离开操作系统提供的内核和软件包有什么意义? 红帽引入了这个错误。 他们应该把修复join到勘误内核中。 使用企业操作系统的优势之一是它们提供了一致和可预测的平台目标 。 这个bug破坏了补丁周期中已经投入使用的系统,降低了部署新系统的可信度。 虽然我可以将其中一个build议的修补程序应用到源代码 ,那么可扩展性如何? 随着操作系统的变化,需要保持警惕。 什么是正确的举动? 我们知道这可能是固定的,但不是什么时候。 […]
我运行一个网站,其中约1000万个文件(书籍封面)存储在3个子目录中,范围为[0-f]: 0/0/0/ 0/0/1/ … f/f/f/ 这导致每个目录大约2400个文件,当我们需要检索一个文件时,这是非常快的。 而且这是许多问题提出的做法。 但是,当我需要备份这些文件时,只需浏览保存10m文件的4k目录就需要很多天。 所以我想知道如果我可以将这些文件存储在一个容器(或在4k容器),这将每个行为完全像一个文件系统(某种挂载的ext3 / 4容器?)。 我想这样做几乎和直接访问文件系统中的文件一样高效,而且这将会非常有效地复制到另一台服务器上。 有关如何做到最好的build议? 或者任何可行的select(noSQL,…)?
任何处理文件服务器权限的人都知道,NTFS有一个有趣的devise特性/缺陷,称为移动/复制问题。 正如本MS KB文章所述 ,如果移动文件夹并且源和目标位于同一个NTFS卷上,则文件夹或文件的权限不会自动从父项inheritance。 如果复制文件夹或源和目标位于不同的卷上,权限将被inheritance。 这里是一个简单的例子: 在同一个NTFS卷上有两个名为“技术人员”和“经理”的共享文件夹。 技术人员组可以通过RW访问技术人员文件夹,pipe理员组可以通过RW访问“pipe理人员”文件夹。 如果某人有权访问这两个文件夹,并将子文件夹从“pipe理员”文件夹移动到“技术人员”文件夹,则移动的文件夹仍然只能由“pipe理员”组中的用户访问。 “技术人员”组即使位于“技术人员”文件夹下,也不能访问该子文件夹,并且应该从顶层inheritance权限。 正如你可以想象的,这会导致支持电话,票证和浪费周期解决这些最终用户问题,更不用说老鼠的权限巢,如果用户经常移动文件夹之间不同的安全文件夹/区域相同的音量。 问题是: 什么是解决这个NTFSdevise缺陷的最佳方法,以及如何在您的环境中处理它? 我知道链接的知识库文章谈到了一些registry键来改变Windows资源pipe理器的默认行为,但他们是客户端,并要求用户有能力更改权限,我认为在大多数环境中是一个非启动器,如果你想要保持对文件服务器权限的控制权(以及系统pipe理员的理智)。
随着Hadoop和CouchDB遍布博客和相关新闻什么是实际工作的分布式容错存储(引擎)。 CouchDB实际上并没有任何内置的分发function,据我所知,粘贴来自动分发条目,甚至整个数据库是完全没有。 Hadoop似乎被广泛使用 – 至less它得到了很好的新闻,但仍然有单点故障:NameNode。 另外,它只能通过FUSE安装,我知道HDFS实际上并不是Hadoop的主要目标 GlusterFS的确有一个共享的概念,但最近我读了几个post,导致我认为它不太稳定 Lustre使用专用的元数据服务器也有单点故障 Ceph似乎是select的球员,但主页表明它仍然处于alpha阶段。 所以问题是哪个分布式文件系统具有以下function集(没有特定的顺序): POSIX兼容 易于添加/删除节点 无共享的概念 在便宜的硬件上运行(AMD Geode或VIA Eden级处理器) authentication/授权内置 一个networking文件系统(我想能够在不同的主机上同时安装) 很高兴有: 本地可访问的文件:我可以用一个标准的本地文件系统(ext3 / xfs / whatever …)来下载一个节点,并仍然可以访问文件 我不是在寻找托pipe的应用程序,而是让我可以说我们的每个硬件盒10GB,并有我们的networking中可用的存储,可以轻松安装在多个主机上。
鉴于Ubuntu上ext4文件系统上目录条目的当前结构,文件系统可以包含的最大文件数是多less? 计算文件系统可以包含的最大文件数的一般方法是什么?
什么是比较目录结构的最佳方法? 我有一个使用rsync的备份工具。 我想告诉源和备份之间的确切区别(文件大小和上次更改的date)。 就像是: Local file Remote file Compare /home/udi/1.txt (date)(size) /home/udi/1.txt (date)(size) EQUAL /home/udi/2.txt (date)(size) /home/udi/2.txt (date)(size) DIFFERENT 当然,这个工具可以是现成的,也可以是一个python脚本的想法。 非常感谢! 乌迪
我的理解是,在文件上运行rm只是取消了它的链接,在文件系统中标记为空闲空间。 然后应该按照删除一个文件总是花费大致相同的时间(即删除速度与文件数量成正比,而不是文件大小)。 那么为什么用一个简单的rm file.tar.gz删除一个15 GB的文件需要一分钟?
每当我从OSX 10.5访问Windows共享时,它都会在远程文件系统上留下.DS_Store文件。 他们用了什么,是否有必要,可以防止他们被创造出来?
我正在备份一台Linux服务器并将其存储在另一台服务器上。 我从一个简单的开始 rsync -aPh –del server.example.com:/ /mnt/backup 然后有人指出我不应该备份/proc ,因为你不想在另一个服务器上恢复/proc 。 还有什么我应该/不应该包括的? 那么/sys呢?