如何修改ext文件系统的超级块,以便我可以设置字段wtime(最后写入时间) ? 我试过用debugfs: debugfs 1.42.9 (4-Feb-2014) debugfs: open /dev/sdd2 -w debugfs: ssv wtime "@0x64000000" debugfs: show_super_stats -h debugfs: close 当我closures文件系统时,将wtime设置为当前系统时间。 显然,我不想改变系统时间,以便在文件系统closures时设置wtime ,然后恢复我的系统时间。 我的第二个想法是,我可以改变它与hexeditor,但我几乎可以肯定,超级块有一个校验和计算超级块和validation。
我正在寻找一个工具来显示文件的哪个部分在文件系统caching中。 在过去,我使用了作为linux-ftools包的一部分的fincore工具。 linux-ftools没有使用我自2012年以来没有更新过的任何发行版本。
我有一个VM模板,用于使用virt-clone / KVM构build其他虚拟机。 VM模板为4GB以节省空间。 由此构build的虚拟机的存储位于iSCSI目标或LVM卷(取决于function),其文件系统大小因机器的angular色而异。 从模板创build一个新的虚拟机后,我必须调整根分区的大小,如果我build立的东西需要超过4GB的磁盘。 这在交互式使用parted时可以正常工作,但不能编写脚本。 当试图删除文件系统时,我被问到是否要继续使用'-s' 下面的输出显示失败的脚本尝试和一个工作交互式会话来实现这一点。 调整我的根分区后克隆的最佳方式是什么,可以简单地脚本化? 尝试分割脚本失败 分区后克隆 # parted /dev/vda p Model: Virtio Block Device (virtblk) Disk /dev/vda: 10.7GB Sector size (logical/physical): 512B/512B Partition Table: msdos Number Start End Size Type File system Flags 1 1049kB 4294MB 4293MB primary ext4 boot 脚本删除尝试 # parted /dev/vda -s rm 1 Warning: Partition […]
我正试图调整我的文件系统来执行一些涉及大量文件的操作。 然后我对我甚至使用的FS感到困惑。 tune2fs -l / dev / vda1包含: Filesystem magic number: 0xEF53 所以这意味着它可以是ext2,ext3或ext4,因为它们共享相同的幻数。 blkid / dev / vda1说: /dev/vda1: UUID="c38b3343-603a-49d3-85e0-88af1c8617c5" TYPE="ext3" PARTUUID="1bf082a8-01" / etc / fstab包含: UUID=c38b3343-603a-49d3-85e0-88af1c8617c5 / ext3 (…) mount(和/ proc / mounts)说: /dev/vda1 on / type ext3 (rw,relatime,errors=remount-ro,data=ordered) 绝对好像我使用的是ext3。 但是,然后, 从哪里冒出来 : liam@lorenz /sys/fs % ls cgroup ext4 pstore liam@lorenz /sys/fs % ls […]
我有一台运行Centos 6的服务器。它已经哼了好几年了,我一直在备份数据。 突然之间,在重新启动之后,它变成了只读模式。 我认为其中一个文件夹没有正确备份,我想访问这些数据。 以下是我所做的: 系统上安装了新的硬盘驱动器。 安装了Ubuntu 15.04桌面。 从新驱动器启动。 当我做: lsblk -l 它告诉我,我有两个驱动器,分区如下: sdb —– sdb1 459.8 G —– sdb2 8 K —– sdb3 6 G sda —– sda1 102 M —– sda2 649 G sdb是新的启动驱动器sda是旧的启动驱动器 我可以安装sda1罚款 当我尝试挂载sda2时,出现以下错误消息: unknown filesystem type 'LVM2_member' 任何想法我能做些什么来获得/ dev / sda2上的数据?
我在一个btrfs文件系统中有一对3TB驱动器,我希望通过使用btrfs device add命令添加两个2TB驱动器来扩展这个文件系统。 当前文件系统中的数据以raid1模式镜像。 我希望得到的文件系统将具有5TB的可用容量,所有raid1模式的数据。 但是, 官方维基说: 如果驱动器具有不同的大小,并且要使用每个驱动器的全部容量,则必须使用数据块的单个configuration文件,而不是raid0。 但是 , 这个答案表明,可能有补丁使用大小不匹配的设备来满负荷全数据镜像: pipe道中有一个准循环补丁来改善这一点。 当然,如果你有一个500GB和一个2TB的磁盘,在不同的设备上configuration所有的块是不可能的。 该修补程序旨在更多的情况下,如1 x 1TB + 2 x 500GB,其中每个小磁盘应该喜欢用大磁盘而不是其他小磁盘镜像/条纹。 哪个是对的?
我们看到一个文件系统上的性能问题,这个文件系统包含了相对较小(通常为几十kb)〜150 K目录的大约500 M个文件。 文件访问主要是读取和写入相当罕见。 文件大多存储在散列的目录层次结构中,每个目录有大约30K个文件,但在某些情况下,一个目录中最多可能有500个K文件。 服务器共享文件系统到〜10台客户机。 获取目录列表通常很慢,有时候甚至在本地读取文件的绝对path。 这是运行Ubuntu 12.04.4(内核:3.8.0 / x86_64)的物理服务器,我们在硬件RAID-6卷上使用ext4。 这种情况下推荐的文件系统设置是什么? 有一个特别适合这种情况的文件系统(例如ext4,xfs,btrfs,…)吗? 我们应该使用什么样的RAIDconfiguration(例如sw和hw,RAID级别等)? 怎么样的文件共享设置(技术[如NFS与竞争],configuration,…)?
我正在通过robocopy将大量的文件从一台服务器复制到另一台服务器上。 我注意到,在robocopy完成之后,会有大量的磁盘活动持续一段时间,此时服务器非常迟缓。 我怀疑这是Windows的文件系统caching,导致robocopy完成后大量的磁盘活动。 为了debugging的目的,我想看看有多less数据仍然需要写入磁盘(性能计数器将是最好的,看到一个graphics,我可以交叉引用)。 我正在从Windows Server 2012 R2实例拷贝总共〜1.3GB的〜110K个文件。
我运行一个文件共享网站,这个网站正在迅速普及。 现在我的networking应用程序在AWS弹性beanstalk上,所以当然可以很好地扩展,但是我的文件目前都是从一个专用的框中提供的。 该框正在开始最大的1gbps连接,所以我试图研究如何扩展文件存储了。 注意:我也把所有的文件同步到了S3,但是由于S3的带宽收费,从那里为它们服务的成本太高了。 我的专用箱子是没有计量的。 到目前为止,我已经看到DRBD和Lsyncd的谈话,但都不觉得我在找什么。 任何有关运行多个文件存储Linux机箱的最佳设置的任何build议都将非常感激。 PS – 值得注意的是我的理想情况是它们在任何时候都是同步的,所以如果一个文件被添加到一个盒子中,它将在所有盒子中同步。 相同的文件被删除。
检查磁盘包含文件系统的简单方法是: mount /grid/sdb /mnt 如果sdb或其他/ dev / sdx具有文件系统,则挂载将成功,否则挂载。 可能文件系统存在! 但这是一个难看的方法来检查。 什么其他优雅的select来检查磁盘上的文件系统? 我的目标是检查文件系统是否已经在磁盘上configuration为/ dev / sdb – / dev / sdx。