我在Debian上安装了一个带有5个3TB硬盘的RAID 5(几个星期8个)。 它只有一个ext4分区,使用所有可用的空间。 实际上,由于RAID(4个驱动器)的起源,ext4 fs的条带宽度被设置为384.但是对于5个驱动器,这并不好。 那么,是否可以在未挂载的ext4分区上使用tune2fs( tune2fs -E stripe-width = 512 )更新stripe-width,而不会丢失数据? 谢谢
我有一个辅助硬盘,我想用作我的KVM主机的存储池。 这里是我用来创build存储池的xml文件, <pool type='disk'> <name>guest_images_disk</name> <source> <device path='/dev/sdb' /> <format type='gpt' /> </source> <target> <path>/dev</path> </target> </pool> 这是创build和启动存储池后的pool-info输出, Name: guest_images_disk UUID: 779b1ad8-093f-4c7f-a32e-4d120101088b State: running Persistent: no Autostart: no Capacity: 931.51 GiB Allocation: 931.51 GiB Available: 992.50 KiB 正如人们所看到的,即使认为我的硬盘中只有一个分区,KVM也不能提供整个分配的空间。
我知道ReiserFS能够将多个小文件存储在一个单独的块中,并且因为这个特性,曾经推荐与s3backer一起使用,因为在S3上存储的块越less意味着成本越低。 我正在考虑在生产系统中使用s3backer,而且ReiserFS已经足够老了,已经被放弃了,所以它不是一个可行的候选者。 是否有任何“现代”的Linux FS能够做同样的事情? EXT4有没有类似的东西?
我试图在我的AWS实例上挂载一个EBS卷。 遵循亚马逊的说明 ,运行sudo mkfs -t ext4 /dev/xvdf时出现以下错误: Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): mkfs.ext4: symbol lookup error: mkfs.ext4: undefined symbol: ext2fs_add_journal_inode2 我曾尝试使用ext3和ext2,并继续得到“未定义的符号”错误。 任何帮助,将不胜感激。
在NFS服务器上,当我扩展逻辑卷(使用lvm2)以及随后的ext4 fs(使用resize2fs)时,我可以在本地使用df查看新的大小。 但是通过NFS挂载这个分区的NFS客户端仍然可以看到旧的大小。 重新启动服务器和客户机都不能解决问题。 为什么会这样呢? 如何解决它? 注意:客户端和服务器上的Ubuntu服务器14.04
我添加一个新的虚拟硬盘驱动器vdb到KVM guest(centos6.5),像这样 [root@centos ~]# fdisk -l | grep vdb Disk /dev/vdb: 8589 MB, 8589934592 bytes 然后,有两种格式化磁盘的方法 一个。 [root@centos ~]# mkfs.ext4 /dev/vdb [root@centos ~]# mount /dev/vdb /data/ 湾 [root@boss ~]# fdisk /dev/sdb Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-1044, default 1): Using […]
在启动的机器上运行fsck会在根文件系统上产生错误。 为了解决这个问题,我从LiveCD启动 – 但LiveCD实例上的fsck根本找不到任何错误。 我也尝试运行相同的二进制引导系统将与 – 相同的结果0错误。 这里发生了什么? 如何解决报告的错误? (见下文) 该机器是一个无头的Ubuntu 14.04,而LiveCD则来自Ubuntu 14.04桌面版。 当我跑步时: fsck -v -n /dev/mapper/lvm-root -f 答复是: fsck from util-linux 2.20.1 e2fsck 1.42.9 (4-Feb-2014) Warning! /dev/mapper/lvm-root is mounted. Warning: skipping journal recovery because doing a read-only filesystem check. Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Pass 3: […]
我正在将客户端从当前服务器迁移到具有DRBD副本的新服务器。 他们正在使用配额,我想知道是否有一种简单的方法将它们导出到旧服务器上,并将它们导入到新服务器上? 我GOOGLE了一下,我想这应该是可能的混合repquota和setquota,但也许有一个工具呢? 谢谢
我正在寻找优化mount选项,当挂载一个磁盘写入linux下的大文件(Ubuntu 16)。 特别是,安装一个外部EXT4 USB 3驱动器备份虚拟机文件(〜10G),并复制video文件(〜8G)。 从内部驱动器复制到外部USB。 我从原始的fstab入门开始,testing了不同的选项。 以下是原始和优化的条目。 我的问题是这样的: 是否还有其他可以进行的优化和当前的优化,数据完整性是否存在风险? # Western Digital My Passport 25E2 # original #UUID=4021ff7e-d371-495b-ad13-b33233fece55 /media/wd01 ext4 rw,noauto,nouser,sync 0 2 # optimized UUID=4021ff7e-d371-495b-ad13-b33233fece55 /media/wd01 ext4 rw,noauto,nouser,data=writeback,noatime 0 2 删除sync ,应允许优化写入,但必须等到所有写入完成后再断开连接 增加了data=writeback ,更适合写大文件 增加noatime ,不更新文件系统的文件,只是正在阅读,看到微小的速度提高,可能是巧合 testing: date sudo rsync -rv /vm/example-disk0.qcow2 /media/wd01/ \ –progress && date && tput bel && tput bel […]
我不时地注意到,在挂载的ext4文件系统上运行fstrim产生大量的裁剪空间,即使这些文件系统使用discard选项挂载也是如此。 我以为discard挂载选项是应该修剪ext4马上。 为什么这似乎不是这样呢? 注: scd1位于Areca RAID控制器后面的直通磁盘上,如果这样做有所不同的话。 # fstrim -v /mnt/cache/ /mnt/cache/: 1351144587264 bytes were trimmed # mount | grep cache /dev/sdc1 on /mnt/cache type ext4 (rw,noatime,nodiratime,discard)