Articles of xfs

将SSD上的XFS日志显着提高性能?

我有一个在RAID5中运行XFS的五个磁盘arrays,我想提高它的性能。 我已经看到一些提示,把日志放到一个单独的设备上可以帮助,把日志上的SSD帮助dramtically? 从理论上讲,它应该,但是我一直没能find任何案例研究,其中有人已经真正做到了这一点,购买固态硬盘,然后让它不能很好地工作,最好不方便…

lvm上的xfs硬件RAID:正确的参数?

我有10个磁盘,每个8TB在一个硬件RAID6(因此,8个数据磁盘+2个奇偶校验)。 在回答了一个非常类似的问题之后 ,我希望自动检测所有必要的参数。 但是,在最后创buildXFS文件系统时,我得到了 # mkfs.xfs /dev/vgdata/lvscratch meta-data=/dev/vgdata/lvscratch isize=256 agcount=40, agsize=268435455 blks = sectsz=4096 attr=2, projid32bit=1 = crc=0 finobt=0 data = bsize=4096 blocks=10737418200, imaxpct=5 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=0 log =internal log bsize=4096 blocks=521728, version=2 = sectsz=4096 sunit=1 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 这看起来像条纹没有被使用过。 由于我在不同的网站上发现了不同的术语(条纹大小,条纹大小,条纹大小,…),我想问一下我是否已经手动获取了正确的参数。 RAID 6已经设置为256KB的条带大小: # […]

挂载XFS分区,块大小<4k

我有一个64k块大小的XFS分区。 但是我只能在Ubuntu 10.10中安装它时,块大小是默认的4k。 我怎样才能挂载更大的块大小的分区? 这工作: sudo mkfs.xfs /dev/sdb1 -b size=4k -d agcount=32 -l size=128m -f sudo mount /dev/sdb1 /mnt/media 这不起作用: sudo mkfs.xfs /dev/sdb1 -b size=64k -d agcount=32 -l size=128m -f sudo mount /dev/sdb1 /mnt/media mount: Function not implemented

将文件系统格式从xfs更改为ext4,而不会丢失数据

我有一台笔记本电脑上运行的新鲜的Lucid Lynx(Ubuntu 10.04)。 在那里我定义的文件系统为: 挂载点/在ext4(46 Gb) jfs上的挂载点/ home(63 GB) 交换为3 Gb 我离开机器过夜做了一些任务,没有交stream电源。 第二天早上,我发现它在待机状态,任务完成,但文件系统无法访问。 它给了我I / O错误 似乎jfs和standby有问题。 无论如何,为了避免任何麻烦,我想把这个挂载点从jfs格式转移到ext4。 我可以做到这一点,而不会丢失数据,也不需要将数据放在临时位置,直到完成转换? 对不起,但是我回想起在windows的日子里,我们会把FAT16改成FAT32或者把FAT32改成NTFS,而不会丢失数据。 我希望这可以在Linux上使用。 更新 / home文件系统是xfs不是jfs,而且由于某种原因,这个文件系统似乎有一个错误,我必须重新安装两次操作系统,直到我用ext4完成整个/ 但是,作为结论,似乎没有办法进行转换

如何破坏文件系统

我将在过去的一些大型文件系统(大约50TB)上testing'xfs_repair',因为内存使用率很高。 虽然我只能在正确的文件系统上testing程序,但如果在损坏的系统上testing它们,这将是一件好事。 那么什么是腐败文件系统的最好方法。 如果该方法每次都会重复出现相同的错误,则需要额外的信用…. 让人们知道我的意思是在2006年 “要成功检查或运行在多TB文件系统上的修复,您需要: 一台64位机器 一个64位的xfs _ repair / xfs _检查二进制文件 每TB文件系统〜2GB RAM 文件系统中每百万个inode有100-200MB的RAM。 xfs_repair通常使用的内存比这less,但是这些数字给了你一个大的文件系统,大于80%的完整文件系统需要修复。 FWIW,最后一次出现在内部,有问题的29TB文件系统花费了大约75GB的RAM + swap来修复。

大的RAID条带大小浪费空间与小文件?

我正在计划在XFS文件系统上使用RAID 0 + 1(或RAID 10,RAID 5)的Maildir存储,并且将使用RAID将使用的条带单位和宽度创buildXFS。 我不确定RAID条带大小,但默认值是我的RAID系统中的128KB。 如果我为Maildir存储使用了128KB的条带大小,是否会浪费一个小于条带大小的文件的空间? 我认为Maildir中文件的平均大小是10KB,那么对于这种环境来说,条带大小是最好的?

CentOS 6比CentOS 5做更多的IO

我正在两台相同的服务器上进行基准testing,一台是Centos 5.8,另一台是Centos 6.2。 我的应用程序在Centos 6.2机器上的运行速度要慢得多(50%或更less)。 在尝试诊断问题时,我正在跟踪整个基准testing中的CPU,RAM和IO。 我发现在CentOS 6.2盒子上的磁盘读取率要高得多,用iostat测量。 两个系统都在运行XFS,我的基准testing正在运行。 两者都是具有512MB高速cachingRAID控制器的HP服务器,运行RAID 10的8个300GB SAS。 这里是每个xfs_info的输出: centos5 meta-data=/dev/cciss/c0d0p5 isize=256 agcount=32, agsize=8034208 blks = sectsz=512 attr=0 data = bsize=4096 blocks=257094144, imaxpct=25 = sunit=32 swidth=128 blks, unwritten=1 naming =version 2 bsize=4096 log =internal bsize=4096 blocks=32768, version=1 = sectsz=512 sunit=0 blks, lazy-count=0 realtime =none extsz=4096 blocks=0, rtextents=0 centos6 meta-data=/dev/sda5 isize=256 agcount=4, […]

将60TB存储添加到SLES 10服务器

我必须添加一些存档\分段存储到SLES 10服务器。 要求是提供相当大的容量(每个约9-20TB,总共60TB左右),用于存储包含大图像文件(大部分为150Mg Tiff)的档案数据(字面上,这是一个图书馆)和大的tarballs。 数据绝大多数会偏向于读IO,当然> 95%,可能超过99%。 该存储已经被购买 – 戴尔MD3000 SASarrays菊花链与2台MD1000完全搭配的2TB 7200 RPM SATA驱动器,共45个驱动器。 arrays堆栈使用两个双端口外部SAS适配器连接,即有4条path通向堆栈。 我的意图是将它们configuration为4个卷组,每个arrays有一个热备份。 所有组都将是带有7个或14个驱动器的RAID 6,并且每个RAID组将使用该组中的所有容量呈现为单个LUN。 在SLES方面,这些需要被格式化为XFS卷。 我对SLES(和一般的Linux)的经验有限,我正在寻找一些关于这方面的build议,特别是: 在SLES 10下configuration这种大小的XFS卷时,有没有什么特别的事情需要注意,即给定IOconfiguration文件的默认设置是否正确? 什么是最好的方式来初始化\分区\格式这些? 我使用Parted来设置磁盘标签和YAST分区pipe理器(接受所有的默认设置)来为我的初始testing创build和格式化XFS卷。 我如何设置多path? 当我提交初始testing卷时,它显示为四个单独的设备(/ dev / sdl,/ dev / sdm,/ dev / sdn和/ dev / sdn)。 我该如何处理这个作为一个单一的卷? 在我的初始testing中,我看到从现有EMC Clariion SAN容量大约30Meg / sec的传输率。 这比我所期望的要低很多,即使考虑到RAID 6写入的惩罚,我也希望能看到70-100Meg / sec的速度。 如何判断一切是否正常 – 我应该在哪里寻找错误,警告等等? YAST分区编辑器需要很长时间才能启动,我想了解原因。 你会不同的分区和\或使用不同的文件系统,如果是的话,为什么? 该服务器是一个戴尔2950 – 我没有检查详细的规格,但顶部显示利用率徘徊在最低的单个数字。

以64kb块大小从XFS获取文件

我一直在从我的2个完美工作,没有损坏,未encryption的NAS驱动器之一恢复文件的任务,曾经是在RAID 1。NAS是爱国者标枪S4,(我从我的研究中发现)使用Promise Fasttrack假冒RAID控制器。 这方面的信息非常稀缺,所以对于同样情况下的谷歌来说,这里是关于这个NAS的一些事实: RAID控制器:Promise FastTrack(FakeRaid) 卷系统:LVM2 文件系统:64kb块大小的XFS(65536字节) Arch:800MHz AMCC PowerPC处理器,256MB RAM(感谢Matthew的研究) 我这样做的时候只有Windows 10和MacOS电脑,而且我发现没有能够在LVM2卷中安装XFS的软件(有一个例外,下面更多)。 我不得不拿出我的旧上网本macros碁Aspire One,并安装小狗Linux(特别是lxpup味道)。 在小狗Linux上,我设法使用一个名为dmraid的工具来挂载这个文件系统。 这个工具有一个安装pdc卷的方法,这是Promise FastTrack的id。 一旦我设法跳过了一些安装它的箍,我获得了对实际的XFS文件系统的访问,令我沮丧的是,它变成了64kb的块大小。 这就是我开始在Google上search“读取xfs 64kb块大小”并且无处可去的地方。 只有几个答案说:“除非你修补内核,否则linux不能读取大于4kb的块大小。 我不知道如何修补内核,我很困惑,没有任何一种模拟允许这样做。 我在Win / Mac上提到了无法读取此分区的应用程序中的一个exception。 这个例外是ufsexplorer。 这是一个100美元的应用程序,它能够无缝地显示我的文件。 我复制了几个文件certificate它的工作原理,但试用版只允许复制微小的文件。 我拒绝相信没有一个免费的开源工具可以帮助我读64kb的xfs。 我的问题是:有人知道任何这样的工具? 有关如何使用一个或多个工具或内核修补程序或其他(免费)获取数据的任何具体说明,我们将不胜感激。 还有一点:我非常喜欢不必创build这些驱动器的本地映像(除非这是唯一的方法)。 毕竟这是2TB的数据,我可能没有这么多的空间。 PS如果有一个已知的Linux我可以安装在我的macros碁可以读取64kb xfs,这也是一个可行的解决scheme。 更新1 :我刚刚了解到https://www.cgsecurity.org/wiki/TestDisk 。 可能值得一试。 一旦我有时间来尝试,会报告回来。 更新2 :TestDisk似乎认识到XFS分区的存在,但我不知道如何进行forms。 我没有办法提取一个文件,所以我现在就放弃了,在马修的回答中尝试使用qemu方法。

如何缩小/ home并在CentOS7上增加更多的空间

CentOS 7文件系统是XFS ,并且resize2fs不起作用。 我需要将/home缩小到400G,并将100G空间添加到/ 。 我该怎么办? # df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 50G 341M 100% / devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 7.8G 84K 7.8G 1% /dev/shm tmpfs 7.8G 778M 7.0G 10% /run tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup /dev/sda1 497M 241M 257M 49% /boot tmpfs 1.6G 16K […]