Articles of ext4

无法写入根分区

出于某种原因,我们无法写入我的根ext4分区。 不幸的是,我没有物理访问计算机,我不能重新启动或做任何事情,因为它是只读的? 我们如何解决这个问题? 我们正在运行的Ubuntu 10.04。 硬盘是一个OCZ顶点 这是错误的一小部分 [100337.752030] end_request: I/O error, dev sda, sector 9579680 [100337.752097] sd 1:0:1:0: [sda] Unhandled error code [100337.752100] sd 1:0:1:0: [sda] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK [100337.752104] sd 1:0:1:0: [sda] CDB: Read(10): 28 00 00 92 2c a0 00 00 08 00 完整的错误: http : //pastebin.com/raw.php?i=ttLM5ZkL

绑定(硬链接)一个目录到很多地方

我需要将一个目录绑定到许多chroot的地方。 我知道我可以执行“mount -o bind”,但是这需要每次启动时进行特殊处理(运行挂载)。 有没有办法直接在文件系统上做到这一点? 我的fs是ext4,它似乎不支持硬链接到目录。 硬连接里面的所有文件也不是一个选项。 你是否可以在ext4中启用硬链接到目录? 或者其他选项是avilable?

可以通过FUSE挂载一个ext4分区映像?

我正在尝试在用户空间中挂载一个ext4分区映像。 (没有sudo,没有特别的configuration/权限修改/ dev / loop0或/ etc / fstab等)。 所以我希望FUSE会来救援。 然而,似乎每个通过FUSE系统安装的文件系统都需要一个特殊的FUSE驱动程序,而且我还没有find一个linux读写的ext4 FUSE驱动程序。 有没有办法通过FUSE挂载ext4映像(有写入权限)?

Linux Ext4到Ext4 rsync重新复制一些文件

我有一个备份脚本安装程序,通过SSH将各种文件从一台机器复制到另一台机器上。 两端都使用Ext4,尽pipe接收端正在使用它的USB大容量存储设备(如果这有所作为)。 我有一个问题,即一些看起来随机的文件被列为每次我运行该脚本,即使他们没有被修改后重新审查。 我可以查看目的地,并且时间戳已经更新为复制期间的“现在”,尽pipe文件没有改变。 我发现这篇文章是关于与NTFS的rsyncing类似的问题,但时间戳问题不应该适用于Ext4。 以防万一,我已经尝试了 – 修改窗口(这不工作)和 – 神秘的工作 。 权限不应该是一个问题,因为我的用户在发送端是与我的用户在接收端相同,我没有指定任何forms的保存。 这是我的命令行: rsync -rvz –no-g –links –safe-links –delete-after –delete-excluded [source] [destination] 我已经validation过,删除和压缩选项不会因为临时删除它而搞乱它; 我仍然得到相同的随机文件,得到recopied。 下面是一个重新获取文件的例子列表: 来源(仅列出相关文件) /home/lytithwyn/Documents/: -rw-rw-r– 1 lytithwyn lytithwyn 11754 2012-08-04 13:44 family birthdays.ods -rw-rw-r– 1 lytithwyn lytithwyn 12897 2012-08-17 09:23 youth_fund.ods rsync输出 building file list … done Documents/family birthdays.ods Documents/youth_fund.ods 复制后的目的地(仅列出相关文件) /mattbackup/lithboxhome/Documents/: […]

慢速ext4 fsck

为什么fsck在ext4文件系统上太慢了? 我总是使用reiserfs或xfs,而且这些系统的fsck真的很快,只需要几秒钟。 现在我决定尝试ext4,但我很失望,每次系统必须fsck我的homedir它需要时间(可以在我的250GB家庭分区,是85%满25分钟)。 也许是因为它是从ext3转换而来的?

磁盘写入过程中,由于断电,ext4 fs可能完全不可恢复吗?

假设你正在用ssd或机械磁盘(操作系统也在同一个磁盘上,没有电池/不间断电源)在一个linux pc盒子中对磁盘进行全速写入: cat /dev/urandom > omg.txt 如果在这个过程中突然断电或者其他任何不正常的关机/重启。 文件是否会被破坏,无法修复(即没有任何数据可以恢复?),文件系统是否有可能完全无法启动?

哪个目录层次结构是最好的/最快的?

我有一个很大的目录,我想重新组织最高性能(访问时间)的许多caching文件。 2个2TB SATA III硬盘,软件RAID 1(镜像) 操作系统:Ubuntu 12.04 LTS 文件系统:ext4 500 GB的数据 大约16-17万个文件 平均文件大小:30KB 文件名是MD5散列 文件通过PHP / Perl脚本(随机)访问。 这些脚本会生成绝对path并读取文件。 没有目录列表:几乎只是fopen文件的绝对path。 当前目录层次结构为: cacheDir/d4/1d/d41d8cd98f00b204e9800998ecf8427e.dat所以一级子目录有256个(例如d4 ),二级子目录有256个(例子中为1d )。 平均每个二级目录大约有200-300个文件。 问题:当cacheDir存在Webstream量高峰和大量cacheDir , iowait正在增长,减慢了系统速度,缓解了非常高的负载和明显的延迟。 只有在访问cacheDir中的文件时才会出现此高负载。 如果我访问其他目录/文件相同的频率,磁盘和系统正在做的很好。 我想知道如果改变caching目录结构会提高性能? 改为(例如): cacheDir/d/4/1/d/8/d41d8cd98f00b204e9800998ecf8427e.dat (16个子目录分别位于: cacheDir/d/4/1/d/8/d41d8cd98f00b204e9800998ecf8427e.dat级,平均15个文件)。 我知道简单的台式SATA III硬盘上的软件RAID 1不是一个速度怪物,但也许有一些优化文件系统的好方法? 请注意: 文件系统启用了dir-index 文件系统挂载noatime 文件系统使用e2fsck -Df进行了优化

Linux KVM客户端文件系统(BTRFS?)

在我们公司,我们在多台服务器上有很多的kvm客户端,大多数客户端运行的是Ubuntu 16.04以及他们的主机系统。 select的文件系统成为EXT4,为客户和主机。 最近我使用了BTRFS提供的一些非常棒的快照function来设置增量备份的备份服务器。 一些研究提供了一个从不使用BTRFS的KVM主机的线索,因为FS的碎片减慢客户端,直到他们最终甚至冻结。 在KVM客户端上是否有build议/不要使用BTRFS? 我们正在重新考虑客户和主机的FSselect,使用XFS比EXT4(客户机/主机还是单方面)有优势?

调整ext4分区的大小,而不会丢失虚拟服务器中的数据

我们有一个运行在VMWare vSphere上的虚拟Linux服务器(Fedora Core 2.6.35.6-45.fc14.x86_64)。 最初它有3个SCSCI驱动器每个32Gb。 现在我们已经把装在“/ home”下的磁盘扩展到了256GB。 但是显然,Linux服务器在重启之后并没有看到这种变化。 有没有一种安全的方式来扩展ext4分区从32GB到256GB与丢失任何数据? 在提出这个问题之前,我已经在Google上进行了search,许多build议都使用了GParted。 但是现在看起来不是我的select,因为我现在只有shell访问服务器。 编辑 :这是来自DF的输出: [root@d0001-prf01 dmr]# df -T Filesystem Type 1K-blocks Used Available Use% Mounted on /dev/mapper/vg_d0011prf01-lv_root ext4 31705024 3385376 27997620 11% / tmpfs tmpfs 4098300 88 4098212 1% /dev/shm /dev/sda1 ext4 495844 31317 438927 7% /boot /dev/mapper/vg_d0011prf01-lv_home ext4 23674012 11840672 10630756 53% /home 如果需要,我可以提供更多的分区信息。 编辑 […]

文件系统build议5 TB文件存储

我有一个本地连接的5 TB RAID6系统(IBM DS3512)。 它将被用作大容量数据文件的存储器,这些数据文件是以顺序写入的方式写入的,然后回读进行处理。 最终数据被删除。 目录遍历并不重要,因为我们有自己的索引服务。 由于这是一个在线系统,腐败的可用性和恢复力非常重要,重build时间也很快。 在这方面,XFS比EXT4有特别的优势吗? 此外,我将如何去调整文件系统? 目标系统运行RHEL 6.3。