在Windows中,使用NTFS进行格式化非常快速。 我有一个低功耗的Linux机器,只有很less的RAM。 格式化一个2TB的卷到ext4需要很长的时间 有什么我可以做的加快格式? 我无法想象需要这么久? (花了那么久)
我有一个400GB的磁盘和一个320GB的ext4分区。 我想扩大ext4分区使用左边的空间(80GB的可用空间)。 +——————————–+——–+ | ext4 | Free | +——————————–+——–+ 我怎么能这样做? 我见过使用resize2fs但是我不明白它是否调整了分区大小。 另一个解决scheme是使用fdisk但我不想删除我的分区和松散的数据。 我怎么能简单地增加分区而不丢失任何文件? 注意:我正在讨论一个没有LVM的未装入的数据分区,我有备份,但是我想避免在恢复上花费一些时间。
我运行一个网站,其中约1000万个文件(书籍封面)存储在3个子目录中,范围为[0-f]: 0/0/0/ 0/0/1/ … f/f/f/ 这导致每个目录大约2400个文件,当我们需要检索一个文件时,这是非常快的。 而且这是许多问题提出的做法。 但是,当我需要备份这些文件时,只需浏览保存10m文件的4k目录就需要很多天。 所以我想知道如果我可以将这些文件存储在一个容器(或在4k容器),这将每个行为完全像一个文件系统(某种挂载的ext3 / 4容器?)。 我想这样做几乎和直接访问文件系统中的文件一样高效,而且这将会非常有效地复制到另一台服务器上。 有关如何做到最好的build议? 或者任何可行的select(noSQL,…)?
鉴于Ubuntu上ext4文件系统上目录条目的当前结构,文件系统可以包含的最大文件数是多less? 计算文件系统可以包含的最大文件数的一般方法是什么?
我的理解是,在文件上运行rm只是取消了它的链接,在文件系统中标记为空闲空间。 然后应该按照删除一个文件总是花费大致相同的时间(即删除速度与文件数量成正比,而不是文件大小)。 那么为什么用一个简单的rm file.tar.gz删除一个15 GB的文件需要一分钟?
今天我用OpenSUSE 12.3(内核3.7)在我的机器上试了这个: # resize2fs /dev/mapper/system-srv 2G resize2fs 1.42.6 (21-Sep-2012) Filesystem at /dev/mapper/system-srv is mounted on /srv; on-line resizing required resize2fs: On-line shrinking not supported /dev/mapper/system-srv是一个EXT4卷。 它真的不被支持,或者我错过了什么?