我正在尝试调整Fedora 11盒子上的ext4文件系统。 使用fsdisk和lvm,我能够增长包含文件系统的分区和逻辑卷。 当我尝试在包含文件系统的设备(在这种情况下是/ dev / sda2)上运行resize2fs时,我得到: “试图打开/ dev / sda2时,设备或资源忙,无法find有效的文件系统超级块” 我已经尝试过从没有安装文件系统的救援磁盘,没有喜悦。 也许resize2fs不知道ext4?
在我运行Ubuntu Server 11.10的机器上,我有一个相当缓慢的四个U盘上的软RAID6arrays(没有其他的持久性存储方式)。 我想要一个更快的文件系统。 如果我在紧急情况下丢失了一些数据,我也可以,但是我宁愿让系统和文件在数据丢失的情况下保持一致的状态。 我可以设置一个RAM驱动器,但是还有更强大的解决scheme吗? (也许,也许,configuration我的ext4使用更多的RAM和同步较less…如果这是一个好主意。) 更新:就这个问题而言,请假设4xUSB棒,RAID6和ext4是常量。 我可以调整RAID6和ext4的设置,我可以设置一些东西(或侧面的RAM驱动器),但没有更低层次的变化。
我只是试图从Live CD启动,并检查我的文件系统使用fsck , fsck.ext4 ,没有错误报告/固定(即说文件系统是干净的),但是当我在系统里面告诉我一些其他的东西: [alexus@XXXXXXXX Desktop]$ sudo fsck.ext4 -n /dev/mapper/vg_wcmisdlin02a-lv_root [sudo] password for alexus: e2fsck 1.41.12 (17-May-2010) Warning! /dev/mapper/vg_wcmisdlin02a-lv_root is mounted. Warning: skipping journal recovery because doing a read-only filesystem check. /dev/mapper/vg_wcmisdlin02a-lv_root contains a file system with errors, check forced. Pass 1: Checking inodes, blocks, and sizes Deleted inode 3014659 has zero dtime. Fix? […]
我使用这些命令将LVM缩小了一半: e2fsck -f /dev/VG/LV resize2fs /dev/VG/LV 5G lvreduce -L 5G /dev/VG/LV 检查物理量产生这样的结果: — Physical volume — PV Name /dev/sdb VG Name VG PV Size 10.00 GiB / not usable 4.00 MiB Allocatable yes PE Size 4.00 MiB Total PE 2559 Free PE 1279 Allocated PE 1280 如何通过fdisk将免费的PE(启动的柱面)作为标准分区来分配?
我的问题是关于EXT4卷相对于大小的文件系统性能。 我们有一个运行任何Linux平台的NAS。 NAS在具有LVM的硬件RAID 6中具有(12)4TB磁盘,导致大约40TB的可用存储容量。 NAS是一个文件服务器(netatalk和samba)。 随着存储器耗尽,我们将连接SAS无源扩展单元。 我的问题: 为了获得最佳性能,我们最适合的方法是从一个40 TB的单片数据量开始并不断增长? 还是我们会更好地创造更小的数据量? 问题1的答案由文件系统types,使用情况等决定了多less 是否有任何最佳实践或规则来计算最佳卷大小?
当购买液滴时 ,DigitalOcean会调用他们的云虚拟机,它们总是configuration一个大的ext4分区。 我有一个需要LVM分区的应用程序,所以我需要一个创造性的方式来缩小根分区,例如25%,剩下的用于LVM。 我可以做一个新的实例,在那里我可以重新启动所有我想要的。 出于性能的原因,我真的想避免一个循环设备,在ext4的顶部文件中创build一个LVM分区。 题 有人能想出一个创造性的方式来缩小ext4文件系统,在哪里重启很好?
其中一个AWS卷的快照已损坏。 我们使用这些快照作为备份,过去他们是一个很好的帮助。 (注意:这不是我们唯一的备份方法!)然而,损坏的快照是无用的。 我想知道如何处理这个,如何检测这个事先等等。 情况 我们有一个AWS Web服务器与一个大的ext3卷(数据)与许多图像在一个文件夹。 我们每日制作所有卷的快照,并且在保存四周的时候,这个卷的成本太高。 我只需要紧急情况下的图像快照,而我想要正常数量的剩余部分。 这是我想要做的: 从卷DATA创build快照 从快照创build新的ext4卷图像 安装卷IMAGES,删除除images文件夹以外的所有文件和文件夹 将原始文件夹移动到卷DATA的根目录 将符号链接到DATA上原始位置的IMAGES上的新图像文件夹 Rsync所有其他数据到一个新的更小的ext4卷:网站 用WEBSITE卷replaceDATA卷,链接到IMAGES卷 第3步没有工作。 我得到了以下错误: sudo mount / dev / xvdf / images mount / mount / dev / xvdf / images失败:结构需要清理 谷歌search这个错误,我发现build议做一个xfs_check,但文件系统是ext3,所以我试过e2fsck。 这导致了无尽的错误和修复,似乎没有工作。 sudo xfs_check /dev/xvdf sudo e2fsck -f /dev/xvdf 我创build了一个新的卷IMAGES,并使用rsync来复制所有内容,因为cp导致崩溃。 我立即创build了一个新卷的快照,并恢复了它,看看它是否行得通。 然后,我开始分割音量,并用两个新音量replace旧音量。 这一切正常,问题解决了。 亚马逊支持 不过,我想知道这里发生了什么,以及如何防止这种情况,所以我联系了亚马逊支持。 他们告诉我快照是坏的,可能是因为快照是在卷被使用时拍摄的。 我们一直这样做,用这些快照做了许多恢复(但不是这个卷),从来没有问题。 该卷已附加,但在快照时未写入。 我决定采取build议,分离音量,做一个快照,看看发生了什么事。 […]
我有200 + G的照片,我通常保持在我的主电脑,使他们始终可用。 文件大小从2-3MB JPG到10-12MB RAW文件。 我认为旧的ext3可能会被抛弃,转而使用更新的技术文件系统(考虑范围和延迟分配…)。 ext4可能是个不错的select,但是我担心它的年龄太小(我经历了Ubuntu Jaunty / kernel 2.6.28的locking) 我正在考虑使用xfs或jfs,它们都使用扩展。 彼此之间有明显的优势吗? TIA
我在这里是新的,我不知道这是否是正确的地方张贴。 最近我被要求从我们的另一个站点引入一个使用过的服务器。 在启动时,我发现它已经使用LUKSencryption。 没有人(在我们的总部或有问题的网站)知道密码,并且系统pipe理员从此辞职。 更麻烦的是,这台服务器上的数据从来没有被备份过,所以基本上我觉得自己被搞砸了。 我search了很多,其中大部分似乎是说恢复是不可能的 – 正如这里所说的。 最后,我在超级用户中偶然发现了这个问题 ,根据这个问题 ,我从故障排除模式的crypttab中删除了条目,现在引导,但是所需的数据在encryption的分区中。 如何从encryption分区恢复我的数据? PS:我已经支持所有其他数据,以防万一。 提前致谢
问题: 我负责一个包含44个节点的Hadoop集群。 我们有1.5TB的WD绿色驱动器(不知道)负载循环计数的问题。 这些磁盘工作正常,但随着他们变老,他们显示越来越多的坏块。 重写这些坏块有一段时间,但他们重新出现在不同的地方。 由于大多数这些磁盘只用于Hadoop datanodes,我们没有预算来取代他们所有我正在寻找一个战略 不要疯狂维护集群,几乎每天都会出现磁盘错误和相关的文件系统问题。 我目前的习惯是: 停止Hadoop服务,卸载磁盘,使用dmesg输出和smartctl定位坏块,并用hdparm –write-sector重写这些坏块。 在磁盘上运行fsck -f -y并重新挂载它。 保持系统稳定。 Hadoop处理磁盘错误(减less3倍),但我宁愿不想冒损坏的文件系统的风险。 我做了什么? 目前我已经改变了mount选项: erros=continue,noatime但是由于日志错误erros=continue,noatime我得到了occosial的只读remount。 然后我试着禁用日志: tune2fs -O ^has_journal这避免只读tune2fs -O ^has_journal但似乎破坏文件系统(这是有道理的,没有日记) 现在我正在考虑切换到 tune2fs -o journal_data_writeback并使用data=writeback,nobh,barrier=0 但是我不确定这是否重新引入了只读重新安装。 所以,我想避免只读重新安装,希望维护稳定的文件系统元数据,但不关心数据中的错误(Hadoop负责这一点)。 速度也不应该受到影响。 我有什么select? 我知道,这可能是任何系统pipe理员的噩梦故事。 操作系统分区挂载完整日记,我不会去testing生产数据。 这是严格的Hadoop数据节点/任务跟踪器硬盘。