在启动CentOS 6时,我一直持续地得到“Superblock last mount time is the future”的错误。我已经看到了其他问题,问如何解决这个错误,但我确切地知道它为什么发生:我们的开发/testingVM定期把他们的date设置为远离现在的时间,并且重新安装所有的文件系统。 我想知道的是:如何禁用所有一致性检查超级块挂载时间在centOS? 我已经尝试了tune2fs -i 0 <device>并在/etc/e2fsck.conf设置了buggy_init_scripts=1并且都没有工作; 问题依然存在。
我想将ext4分区转换为ext3分区而不格式化硬盘。 这是可能的,并build议?
我需要一些关于我的Linux机器上托pipe的新的1TB介质服务器的文件系统的build议。 我有一些要求: 需要共享到不同的Windows机器(不是双启动,完全不同的盒子)。 我发现至less可以select使用ext3来做到这一点,而且我认为这将是一个非常罕见的情况,我可以忍受这一点。 绝对需要能够通过我运行XBMC的Xbox上的Samba进行访问(并且可能会在未来与Xbox 360共享)。 需要允许文件大小超过4GB。 需要与我构build的任何未来的媒体服务器/前端共享(所有将运行一个Linux变种,如Boxee,XBMC,神话*)。 我猜fat32是由于文件大小的要求,而我以前使用过NTFS,我更喜欢Linux本地的东西。 我接受任何事情,谢谢。
我有一个mdadm在我的Ubuntu Linux 11机器上创build了软件RAID卷。 这不是启动驱动器。 这是一个由3个大型SATA硬盘组成的软件RAID 5configuration。 当我最初创build它时,我做了ext3。 我从那以后就知道我可以将它转换成ext4(或ext2)。 首先,我想确认一下,这是有道理的,例如转换为ext4会给我更好的性能(在ext3上searchext4似乎是一个共同的好处)。 接下来,是否有任何理由考虑去ext2 – 或者这实际上是一个坏主意? 最后,我该怎么做? 从我收集的内容(例如,从这个站点),我需要卸载音量,然后执行一些命令来转换音量。 我的fstab当前被设置为文件系统types的“自动”。
我有6个驱动器(每个1.5T,所有相同的型号和固件版本),是RAID5arrays的一部分。 RAID5制作一个LVM卷组和一个逻辑组。 后者只包含一个ext3分区。 我最近跑了: e2fsck -f /dev/vg03/lv01 && resize2fs -M /dev/vg03/lv01 退出没有错误。 现在当我尝试mount /dev/vg03/lv01我得到: EXT3-fs error (device dm-0): ext3_check_descriptors: Block bitmap for group 30533 not in group (block 1000532368)! EXT3-fs: group descriptors corrupted! 我如何摆脱困境? 这是我现在可以给你的所有信息: fdisk -l /dev/sd[cdefgh]显示(正确)他们是“ Linux raid autodetect fdisk -l /dev/sd[cdefgh] ” 但fdisk现在显示: fdisk -l /dev/md0 磁盘/ dev / md0:7501.5 GB,7501495664640字节 … […]
Btrfs是否有可能仅将SSD用于元数据,并将批量数据放在成本较低的存储设备上,如HDD? 我提到这个页面Using_Btrfs_with_Multiple_Devices并找不到解决scheme。 谢谢!
我们有一个巨大的disk_cache(> 500.000条目,> 50 GB磁盘空间使用)的Apache设置。 caching每天增长16 GB。 我的问题是,caching似乎正在增长几乎一样快,可以从caching文件系统中删除文件和目录 ! caching分区是iSCSI存储上的ext3文件系统(100GB,“-t news”)。 Apache服务器(充当caching代理)是一个虚拟机。 disk_cacheconfiguration了CacheDirLevels = 2和CacheDirLength = 1,并且包含变体。 典型的文件path是“/htcache/B/x/i_iGfmmHhxJRheg8NHcQ.header.vary/A/W/oGX3MAV3q0bWl30YmA_A.header”。 当我尝试调用htcacheclean来驯服caching(非守护进程模式,“htcacheclean-t -p / htcache -l15G”)时, IOwait将会经过几个小时的时间 。 没有任何可见的行动。 只有几小时后,htcacheclean才开始从caching分区中删除文件,这需要花费几个小时。 (2009年在Apache邮件列表中提出了类似的问题,但没有解决方法: http : //www.mail-archive.com/[email protected]/msg42683.html ) 高IOwait会导致Web服务器的稳定性问题(通往Tomcat后端服务器的桥梁有时会停滞)。 我想出了我自己的修剪脚本,它从caching的随机子目录中删除文件和目录。 只是发现脚本的删除率略高于caching增长率 。 该脚本需要大约10秒的时间来读取一个子目录(例如/ htcache / B / x),并释放一些5 MB的磁盘空间。 在这10秒内,caching又增长了2MB 。 与htcacheclean一样,在连续运行修剪脚本的时候, IOwait会上升到25% 。 任何想法? 这是(特别慢)iSCSI存储的特定问题吗? 我应该为一个巨大的disk_cacheselect一个不同的文件系统吗? EXT2? EXT4? 有没有这种情况下的内核参数优化? (我已经尝试了截止日程安排程序和一个较小的read_ahead_kb,没有效果)。
我需要损坏ext3文件系统(用于testing目的)到一些可修复的状态。 如何做到这一点?
我有一个高IO应用程序正在工作,并且扩展到目前为止。 在过去的几个月中,我们一直在试图放眼未来,预测下一个瓶颈将发生的地方。 其中之一肯定是文件系统。 我们正在监测 可用空间 每秒读取操作 每秒写入操作 这对我来说似乎有点太稀疏了。 还有什么我应该看? 我甚至不确定每秒操作的“黄线”是什么。
我正在通过两个节点上的DRBDconfiguration。 DRBD已经configuration,但是我想启用双主模式function。 在drbd站点上,我已经看到它需要使用一个共享集群文件系统,它使用了像GFS和OCFS2这样的分布式锁pipe理器。 ext3文件系统有可能吗? 提前致谢。