我试图在centos 6.5上创build一个与现有的ext4文件系统具有相同function的ext4文件系统。 当我在生产文件系统上使用dumpe2fs时,我看到日志function:journal_incompat_revoke 。 我创build的文件系统具有日记function:(无) 。 有人知道吗: journal_incompat_revoke意味着什么 如何在创build新的文件系统时启用它。 手册页中没有find任何内容。 谢谢。
我正在testing一个平面devise,而不是sql db,它使用一个嵌套的文件目录结构。 首先,我正在考虑将数据存储在文件中,但是每个文件不超过40个符号,所以为什么打开文件的时候可以从文件名中读取所有内容?但是现在我无法find真正的文件存储空间与sql表相比的差异。 我尝试了杜find它总是只显示目录大小和0B的文件.. 有没有办法获得文件的实际大小? 或者至less手动计算,或猜测? 不知道我的云使用的文件系统,我猜ext4 ..操作系统是Ubuntu 14.04 编辑: 从我所了解的回应中,唯一要使用磁盘空间的是目录本身。 那是4Kb的最小值。 每个目录应该有大约300个空文件。 如果一个inode消耗至less256B,将目录膨胀到76.8Kb,但目录仍然只有4Kb。 另一件事我试图找出是SQL表和这个平坦的设置之间的区别。 当我执行 SELECT pg_size_pretty(pg_total_relation_size('table_name')); 在表中有300条logging(而不是一个string的名称是5个字段 – 6 pk:1x ForeignKey,1xCharfield最大20 len,2x FloatField,1x IntegerField)响应说,16Kb大小。 这是postgresql 9.3和django 1.8.6。 将这些数据存储在一个SQL表格和一个空文件的名称之间真的可以有60Kb的差异吗? 或者目录不会由于inode而变得臃肿,我保存12Kb? 如果你想知道为什么我想这么多几kb,设置应该以后可以容纳100K用户与这些空文件或dblogging100x300 ..所以这是一个真正的数据GB的问题.. 🙂
我正在使用NetGear ReadyNAS机器作为我们服务器的NAS。 该服务器是一个Linux CentOS 6.6。 服务器使用Rocks集群运行,所有用户的主目录位于NAS上。 我的理解是,当用户login时,主目录会自动挂载到/ home。 最近我们一直在面对臭名昭着的,间歇性的“没有留下任何设备空间”,而我们的驱动器还远没有满员。 它不是全虚拟内存的情况。 然而,这个问题通常在删除或压缩一些文件后得到解决(暂时的)。 我想检查我的inode是否已满,但由于某些原因,我们的用户目录所在的共享不报告inode信息,只显示0。 有人可以解释为什么这样的情况,以及如何检查我的NAS的这个份额的inode? NAS是RAID 10configuration中的nfs文件系统,而我的Linux群集使用ext4。 下面是在我们的主节点上执行的df -h输出: Filesystem Size Used Avail Use% Mounted on /dev/sda2 20G 16G 2.5G 87% / tmpfs 7.9G 12K 7.9G 1% /dev/shm /dev/sda1 190M 103M 78M 57% /boot /dev/sda6 4.7G 12M 4.5G 1% /tmp /dev/sda3 12G 2.0G 9.0G 18% /var tmpfs […]
我们安装了一个新的DELL服务器(不支持)Ubuntu 10.04 LTS。 在安装Ubuntu之前,我们用DELL工具configuration了一个硬件RAID(我认为是RAID 1)。 服务器根本没有加载,一个小的Postgres服务器和一些Samba共享处于活动状态。 有时硬盘似乎是文件和Ubuntu的安装文件系统为只读。 重新启动和运行fsck有帮助的时刻,但问题一再出现.. 今天,我看到一个错误消息发生时(将大文件保存到硬盘): end_request: I/O error, dev sda, sector 0 Aborting journal on device dm-0-8 EXT4-fs error (device dm-0): ext4_journal_start_sb: Detected a (…) journal EXT4-fs (dm-0): Remounting filesystem read-only EXT4-fs (dm-0): EXT4-fs error (device dm-0): in ext4_da_write_end: IO failure This should not happen!! Data will be lost EXT4-fs (dm-0): […]
我无法弄清楚为什么我会从我的mdadm,尤其是lvm分区中获得如此糟糕的时间。 我做了突袭: mdadm –create –verbose /dev/md0 –level=5 –chunk=1024 –raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1] 2930279424 blocks level 5, 1024k chunk, algorithm 2 [4/4] [UUUU] 然后我创build了物理卷,卷组和逻辑卷,然后使用下面的命令将逻辑卷格式化为ext4: http : //busybox.net/~aldot/mkfs_stride.html mkfs.ext3 -b 4096 -E stride=256,stripe-width=768 /dev/datavg/blah 现在我很困惑,在mdadm之前,我已经把这些lvs运行得很快,但是现在我已经'优化'了所有的速度,比如: /dev/datavg/lv_audio: Timing buffered disk reads: […]
我在CentOS 5.5 linux中启用了fstab中的配额 [root @ drone3〜]#mount | grep usrquota / dev / sda4 on / storagetypesext4(rw,noatime,nodiratime,usrquota) 当我托盘来激活/存储上的配额时,我碰到以下消息: [root @ drone3〜]#quotacheck -cu / storage quotacheck:找不到Mountpoint(或设备)/ storage。 quotacheck:无法find要检查的文件系统,或者没有使用quota选项挂载的文件系统。 [root @ drone3〜]#uname -a Linux drone3.xxxxxxxxxxx.com 2.6.18-194.26.1.el5#1 SMP Tue Nov 9 9:54:20 EST 2010 x86_64 x86_64 x86_64 GNU / Linux 因此,没有在/ storage上创buildaquota.user文件,并且未启用/启动配额。 你怎么看 – 问题在哪里? 是因为ext4文件系统和/或这是一个错误? 我没有发现任何有关这些消息和谷歌ext4。 所有与配额相关的命令都会给出类似的信息 – […]
我在服务器的/var/log/messages看到以下/var/log/messages 。 他们看起来像堆栈痕迹,并没有任何叙述(例如“这样那样的错误”)之前。 我几乎可以肯定它们与我正在经历的I / O问题有关,但是明白这些消息究竟是什么以及是什么触发它们将是有益的。 Jan 25 14:56:58 hostname kernel:[15321.586145] master D 000000010016bfbb 0 2753 1 0x00000004 Jan 25 14:56:58 hostname kernel:[15321.586150] ffff88030d053a78 0000000000000086 00000000ffffffff 0000000000015980 Jan 25 14:56:58 hostname kernel:[15321.586156] ffff88030d053fd8 0000000000015980 ffff88030d053fd8 ffff88030dedc4a0 Jan 25 14:56:58 hostname kernel:[15321.586161] 0000000000015980 0000000000015980 ffff88030d053fd8 0000000000015980 Jan 25 14:56:58 hostname kernel:[15321.586166] Call Trace: Jan 25 14:56:58 […]
我在一台服务器上安装了BackupPC toda,并将其设置为在12小时前进行备份…而由于它已经备份,似乎非常缓慢,尚未完成。 它只是备份一个testing服务器,总磁盘使用量为1.8GB。 什么可能导致备份过程如此缓慢? rsnapshot总是工作得非常快,但我想改善我的备份解决scheme。 df显示备份磁盘上的大小实际上还在增加。
EXT3支持32,000个子目录。 EXT4支持64,000 … 我已经阅读了XFS文件系统上拥有数百万个子目录的人,但无法find任何地方引用的确切值。 XFS文件系统支持多less个子目录?
我有一个内部硬盘(一个2TB的耳朵)synology nas。 此驱动器具有SMART错误。 我采取了驱动器,并build立在一个外部的USB案件。 然后我启动Linux mint并尝试挂载数据分区: $ mount -t ext4 /dev/sdc5 [ 5875.123929] EXT4-fs (sdc5): VFS: Can't find ext4 filesystem 这里是详细的数据,它不是sdb,它是sdc5。 [ 3986.299096] scsi 3:0:0:0: Direct-Access WDC WD20 EARS-00MVWB0 PQ: 0 ANSI: 2 … [ 3993.436189] sdb: sdb1 sdb2 sdb3 < sdb5 > … [ 3993.519917] sd 3:0:0:0: [sdb] Attached SCSI disk Device Boot Start […]