Articles of ext4

如何诊断不稳定的磁盘行为?

我有一个用户lighttpd和CGI脚本的网站。 升级到Fedora 11(ext4)后,光盘访问变得不稳定。 python -c 'import cgi'在0.1到10秒之间变化: 我如何诊断问题? (工具,方法,最佳实践…) 2009年7月30日更新: 发现有几个CGI进程占用了硬盘空间。 杀死他们后,graphics稳定在0.02和0.03之间。 仍然没有得到如何诊断这样的问题的答案。

CentOS 5.5 ext4转换问题 – ext4分区被识别为ext3

我有5.4机器。 通过yum升级今天升级到5.5。 一切顺利。 重新启动。 想要将根分区转换为ext4(我有三个分区:/ boot,/和swap)。 他们都在软件RAID 1上(根目录是/ dev / md2)。 我做了以下转换 yum install e4fsprogs tune2fs -O extents,uninit_bg,dir_index /dev/md2 nano /etc/fstab # I indicated here that my /dev/md2 is of ext4 uname -a mkinitrd -f /boot/initrd-2.6.18-194.3.1.el5.img 2.6.18-194.3.1.el5 重新启动。 我希望fsck可以像某些网站上说的那样自动启动。 但事实并非如此。 抛出一些错误(不记得确切的是)。 好的,我启动了linux rescue并执行了fsck: fsck -t ext4 -fy /dev/md2 分区进行得很好。 但是当我启动主系统时,它在日志里写道:“ext3-fs:”然后是由于未知的扩展归因(200)导致无法挂载ext3分区。 我再次启动Linux的救援。 它加载正常,正确地确定所有我的机器分区ext3(引导)和ext4(/)在/ mnt / sysimage下就好了。 […]

如何在Linux中的6x2TB WDC驱动器上创build分区,raid5和文件系统

我对这种“高级格式”(4KB扇区)谈到更大的(2TB)驱动器感到困惑 – 我想知道如果我正在构build新的软件(mdadm)RAID-5arrays,我将如何解决这个问题。 我要买的驱动器是Western DigitialCaviar®Green 2TB,64MBcaching。 大概4个,或者6个,这些使我成为一个新的RAID5存储。 用我早期的设置,在RAID-5中的6x500GB驱动器,我包括没有任何分区表的整个驱动器(/ dev / sda,/ dev / sdb ..),然后在整个raid / dev / md0没有任何分区表。 但有了这个“高级格式”的东西,我想知道是否必须在这些2TB驱动器上创build一个具有1024kb偏移量(?)的GPT分区表,将分区包含在RAID-5arrays中,然后在创build文件系统之前还要创build一个GPT分区表? 这是否需要从arrays中获得良好的速度? 或者我可以用旧的方式做,而不会注意到有什么区别? 另外…有什么参数,我应该知道,而由mdadm RAID-5获得最佳的速度? (关于驱动器的4GB扇区)。 而且,我应该用任何特殊的参数格式化这个存储? 我打算build立一个EXT-4文件系统。 对不起,这个混乱的post,但我很困惑,这“高级格式”是什么,这将如何影响我计划的RAID设置。 编辑:也…任何意见,我应该使用的RAID5块大小?

应该使用EXT4或XFS能够“同步”/备份到S3?

这是我的第一个信息,所以请忍受我 (我已经检查了编辑build议的不less“相关问题”), 这是设置, 一个全新的专用服务器(8GB内存,大约140+ GB磁盘,硬件控制器Raid 1,15000 RPM) 它是一个生产Web服务器(其中也包含MySQL,不仅仅是提供Web请求)。 不是个人台式电脑或类似的。 Ubuntu服务器64位10.04 LTS 我们有一个亚马逊EC2 + EBS设置,EBS卷的格式为XFS,通过AWS的控制台轻松将快照提交到S3。 我们现在正在迁移到专用服务器,我希望能够将我们的数据备份到亚马逊的S3。 主要原因是在专用服务器出现硬件故障的情况下使用EC2实例的最新快照的可能性。 有两种方法我正在考虑: 使用rsync进行“简单的”基于文件的备份,转储数据库和其他文件,并通过S3 API命令或EC2实例上传到amazon。 使用通常的ebs / ec2快照工具执行文件系统“冻结”(使用XFS),以便占用文件系统的一部分,创build快照并将其上传到Amazon。 这是我的问题(或一系列问题): 我可以安全地使用整个系统的XFS作为专用服务器上的主要格式吗? 如果没有,使用EXT4安全吗? 还是应该使用别的东西? 然后可以使系统的快照上传到亚马逊? 无论如何,做我想做的事情是否可行/可行/实际? 有什么build议? 在searchS3 / EBS / XFS时,与我的问题相关的任何事情通常都集中在拍摄已经是EBS卷的XFS系统的快照上。 我的意图是在一个“真正的”/金属专用服务器。 更新 :我刚刚在维基百科上看到这个: XFS不提供对快照的直接支持,因为它预计快照过程由卷pipe理器执行。 我一直认为我可以select两种快照方式:通过LVM或通过XFS(不含LVM)。 读完这个之后,我意识到这两个选项更像是这样: 使用XFS:1)执行xfs_freeze; 2)通过例如rsync复制冻结的文件; 3)解冻xfs 使用LVM和XFS:1)执行xfs_freeze; 2)通过lvcreate和相关命令制作冻结的fs的二进制副本; 3)解冻xfs; 4)以某种方式备份LVM快照。 非常感谢, 让我知道如果我需要澄清的东西。

qcow2:在LVM之上的ext4上安全地使用guestfish zerofree选项?

在LVM卷内的ext4上使用guestfish的zerofree选项是否安全? 如果没有,最好的方法是什么 – 重新启动(在虚拟机内)进入恢复模式,并使用常规的zerofree工具 ? 我无法在线查找任何引用,以便将这两个工具与LVM一起使用。

在线备份运行在Ext4fs上的Xen虚拟机

有什么方法来备份Xen虚拟机的内容? 我有一些在LVM / Ext4磁盘上运行的虚拟服务器。 优选地,可以通过SSH /networking连接直接执行而不需要首先创build虚拟机的本地副本的方法。 就我而言,我只想备份磁盘镜像,而不是运行状态。 但是,在线的磁盘分区的简单副本可能会屈服于Ext4腐败?

文件系统宁愿先写低LBA?

也许标题混乱,但让我解释一下… 我们的mysql服务器(在xen虚拟机上)有时会在磁盘上生成巨大的tmp文件。 所以我们需要一个大的tmpdir来存储它们。 我们决定将tmpdir安装到SSD以获得更好的性能。 但是,正如你所知,SSD在某种程度上是昂贵的,而且mysql并不总是生成那么大的tmp文件。 所以如果我们把每一个虚拟机的mysql都设置成一个大的SSD,那就太浪费了。 因此,我们只想给每个tmpdir(例如10G)提供小型SSD(实际上是在xen SSD上备份的虚拟磁盘)。 但正如前面所说,有时候mysql会生成超过10G的巨大tmp文件。 如果发生这种情况,那么mysql查询将失败。 所以我们要这样的剂量: 将一个ssd和hdd合并成一个驱动器(这样它可以挂载到mysql的tmpdir)。 当ssd用完所有空间,然后使用硬盘。 然后我认为dmseupt或LVM也许可以做到这一点。 所以我做了一个简单的testing: 1 SSD 0.5G | 1 HDD 10G | 一个逻辑卷在两个驱动器之上 | 上面逻辑卷上的ext4文件系统 并使用dd工具生成一些大小为0.3G的文件。然后我可以看到SSD使用增长了0.3G,硬盘没有改变。 一切都很好,直到现在! 但是,当我删除该文件,然后创build,然后删除,…这样做。 原来硬盘空间的使用量不断增加! 所以我客人ext4剂量不倾向于覆盖删除的文件? 我们可以禁用此function还是有另一个文件系统首选写低LBA? 谢谢阅读!

我可以在lvextend之后减less内部的ext4分区吗?

在一个僵化的尝试将我的根分区从一个磁盘移动到另一个我做了以下几点: 添加新的磁盘 用parted分区(第3部分现在几乎完全填满了磁盘) 初始化一个物理卷 $ pvcreate /dev/sdb3 Physical volume "/dev/sdb3" successfully created 扩展卷组以包含这个新的物理磁盘 $ vgextend myvg /dev/sdb3 Volume group "myvg" successfully extended 扩展了逻辑卷(我认为这是我把它弄明白的地方:我想我应该把这些东西放到那个组里的新版本 – 有人可以证实吗?) $ lvextend /dev/mapper/myvg-root /dev/sdb3 现在我想撤消这个虚拟主机,然后继续把原来的物理卷的内容移动到新的物理卷上。 我可以减less逻辑卷(我还没有触及位于/ dev / mapper / myvg-root中的类似resizefs的ext4分区),而不用担心损坏ext4文件系统吗? 如果是这样,我怎么告诉它减less恰到好处的量? $ lvreduce –by-exactly-the-amount-occupied-by-PV /ev/sdb3 /dev/mapper/myvg-root

将数据从ext4卷移动到ext3卷,它消耗更多的空间,为什么?

只需要一个简单的答案,做了一些search,找不到它。 与ext4相比,ext3的元数据开销是多less? 我将许多卷从使用ext4卷的SAN迁移到格式为ext3的新存储arrays,卷的大小从2-3%增加到11%。 平均涨幅约为6.5%。 一切正常,所有的文件在那里都有足够的空间来保存,所以不是一个大问题,但我认为6 +%的差异似乎有点高。

ext3转换为ext4仍然被挂载为ext3

目前我用我的Debian系统(主要是testing)有一些有趣的问题。 我以前在lvm上有一个根分区,格式为ext3。 我现在启动一个实时系统,并将ext3转换为ext4(通过tune2fs …),也做了一个fsck.ext4。 在现场系统中,我可以挂载分区为ext4。 然后我把/ etc / fstab中的条目从ext3更改为ext4,然后重新启动我的Debian。 问题是这个分区(即使它在/ etc / fstab中声明为ext4)似乎仍然被挂载为ext3 – 至lessmount是这么说的。 当我尝试确定文件系统types时,我得到不一致的结果: fsck -N报告ext4: sudo fsck -N /dev/mapper/hed-root fsck from util-linux 2.20.1 [/sbin/fsck.ext4 (1) — /] fsck.ext4 /dev/mapper/hed-root 但blkid说ext3 sudo blkid -o value -s TYPE /dev/mapper/hed-root ext3 正如我所说的文件系统驻留在lvm卷。 我什么也没有改变。 我能做些什么来解决这个问题? 非常感谢!