Articles of xfs

JFS或XFS或其他?

决定在我们的服务器上使用LVM2作为卷pipe理器之后,也希望有一个可在线resize的文件系统。 在阅读了几篇文章之后,我决定使用JFS来支持XFS。 现在我今天在办公室服务器上断电了,我发现JFS卷上的一个文件已经完全损坏了。 虽然这可能发生,但是系统在我断电后没有在启动过程中指出任何文件系统问题,从而使我相信一切都是好的。 重播日志后,所有文件系统都是干净的。 这让我的口感不好。 我不想要一个文件系统在断电后不能恢复,但我真的不希望有一个文件系统不会告诉我可能有问题。 所以我想我会试试看,你会问哪个文件系统? 你喜欢哪一个?为什么? 我正在寻找以下function: 强大的 在线增长 对于一般的工作负载来说性能很好 可以在CentOS 5.4发行版中find,但这是可选的 我也想知道你是否使用过JFS,并且有过不好的经验 – 当然如果使用JFS的话也是成功的。 最终:你更喜欢XFS而不是JFS,反之亦然(正如日常使用中提到的那样,而不是特定的工作负载)

Btrfs可以使用SSD来获取元数据,并将批量数据留在硬盘上吗?

Btrfs是否有可能仅将SSD用于元数据,并将批量数据放在成本较低的存储设备上,如HDD? 我提到这个页面Using_Btrfs_with_Multiple_Devices并找不到解决scheme。 谢谢!

XFS添加配额 – 跳过第一次安装/引导的配额检查

我们在集群上运行14TB XFS文件服务器,并希望添加配额支持。 这是在CentOS 6.3(Final)下运行3.9.2-1.el6.elrepo.x86_64内核。 问题是当我们卸载XFS RAID时,重新挂载它,添加配额支持,挂载命令挂起。 Sever IS响应并且XFS挂载点不可访问。 恢复/ etc / fstab中的更改以删除配额选项不会挂载挂起。 我怀疑重新挂载时,XFS正在对14TB RAID进行配额检查。 我的问题是: 我如何禁用初始配额检查,以便它可以正确安装,并在后台运行配额检查? /etc/fstab条目: /dev/sdb /w1 xfs defaults,noatime,usrquota,grpquota 1 2 /var/log/messages输出: Jun 6 11:37:43 nas-2-1 kernel: XFS (sdb): Mounting Filesystem Jun 6 11:37:43 nas-2-1 kernel: XFS (sdb): Ending clean mount Jun 6 11:37:43 nas-2-1 kernel: XFS (sdb): Quotacheck needed: Please wait. 我不介意高CPU使用率或性能下降,而挂载点是积极的,但让它不可用不是我们要坚持的选项。 […]

XFS上的高目录 – 文件比率的影响

我们正在构build一个可能会产生非常大的XFS卷的产品,并且我正试图发现在给定架构的情况下我们可能遇到的扩展瓶颈。 当我们操作文件时,它们被放置在XFS卷上的目录中。 由于我们处理的文件数量众多,文件数量肯定在数千万之内,而且在发布之后太久之前可能会达到数亿。 我们知道这是因为我们目前的产品是这样的,所以期待我们的下一个产品是类似的。 因此,正确的早期工程是有序的。 本周这些文件基于以下粗略布局: $ProjectID/$SubProjectID/[md5sum chunked into groups of 4]/file 其中给出了这样的目录: 0123456/001/0e15/a644/8972/19ac/b4b5/97f6/51d6/9a4d/file 分块md5sum的原因是为了避免“一大堆文件/目录在一个目录中”的问题。 由于md5sum分块,这意味着1个文件导致8个目录被创build。 这对inode有着非常明显的影响,但我不清楚一旦我们达到规模,对XFS的影响会是什么。 有什么影响? 顺便说一下,这是内核2.6.32,目前CentOS 6.2(如果需要可以更改)。 在testing中,我已经创build了默认的xfs卷,并没有使用任何安装选项。 这是为了早日排除问题。 因为我们不需要它,所以noatime是一件简单的事情。 总体来说,XFS调整是我需要解决的另一个问题,但现在我担心我们现在devise的元数据乘数效应。 我已经知道一个更好的解决scheme将是什么,我只是不知道是否有案件推动改变。 由于md5sums在第一个数字中是非常独特的,单个子项目很less超过500万个文件,所以在我看来,我们只需要前两个数据块。 这将产生如下的布局: 0123456/001/0e15/a644/897219acb4b597f651d69a4d/file 完全完整的第一级和第二级将在每个第一级目录中具有2 16个第一级目录和2 16个第二级目录,卷上总共有2 32个目录。 因此假设的5百万个文件子项目因此将具有2 16个第一级目录,每个大约76(+/- 2)个二级目录以及每个第二级目录中的一个或两个第三级目录。 这种布局有更多的元数据效率。 我只是不知道是否值得努力改变现在的情况。

无法挂载XFS分区了

我有9个分区格式化为我的服务器上的XFS。 当我尝试安装其中一个,它失败。 其他人安装好。 root@fileserver2 # mount | grep xfs | head -1 /dev/sdb1 on /mnt/hdd1 type xfs (rw,noatime) root@fileserver2 # mount -t xfs /dev/sdf3 /mnt/hdd3 mount: wrong fs type, bad option, bad superblock on /dev/sdf3, missing codepage or helper program, or other error In some cases useful info is found in syslog – try dmesg […]

如何增加XFS文件系统的大小?

我刚创build了一个运行RHEL7的Amazon AWS EC2实例: [root@ip-10-184-161-46 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 7.0 (Maipo) [root@ip-10-184-161-46 ~]# 即使我select了10GB作为我的存储容量,无论出于何种原因,我只能看到6GB可供我立即使用: [root@ip-10-184-161-46 ~]# mount | grep xfs | grep -v selinux /dev/xvda1 on / type xfs (rw,relatime,seclabel,attr2,inode64,noquota) [root@ip-10-184-161-46 ~]# df -h | grep xvda /dev/xvda1 6.0G 2.2G 3.9G 37% / [root@ip-10-184-161-46 ~]# fdisk -l /dev/xvda Disk /dev/xvda: 10.7 […]

这是XFS可靠吗? 在电源断电的情况下,xfs风险更高,ext3数据损坏/安全吗?

我一直在遇到一些电力问题,其中大部分是突然停电几个月的电力,尽pipeups大部分都是解决问题的。 但是我仍然担心文件系统损坏,数据丢失。 当计算机closures,崩溃或其他文件系统问题时,xfs比ext3更差或者更不可靠? 有一个ups和一个好的备份策略(我有一个1,5 TB的磁盘,我想用来备份所有的关键数据)就够了,我不应该担心? 当电源closures时,我一直在阅读这个xfs zero out数据(虽然我认为这已经解决了),像XFS这样的东西对于数据损坏是不安全的。 启用写屏障并正确调整xfs,并进行ups和备份,可能是像ext3一样可靠的xfs,或者至less可以接受? 如果我使用/和/ home的xfs来获得更多的性能(主要是大文件),那么我会比使用xfs更多地使用我的数据。

CEPH的原始空间使用情况

我无法理解ceph的原始空间使用情况。 我在7台服务器上有14个硬盘(14个OSD),每个硬盘3TB〜42TB的原始空间。 ceph -s osdmap e4055: 14 osds: 14 up, 14 in pgmap v8073416: 1920 pgs, 6 pools, 16777 GB data, 4196 kobjects 33702 GB used, 5371 GB / 39074 GB avail 我创build了4个块设备,每个5 TB: df -h /dev/rbd1 5.0T 2.7T 2.4T 54% /mnt/part1 /dev/rbd2 5.0T 2.7T 2.4T 53% /mnt/part2 /dev/rbd3 5.0T 2.6T 2.5T 52% /mnt/part3 /dev/rbd4 […]

在Linux中监视XFS文件系统健康状况

我最近遇到文件系统崩溃。 我有一台服务器运行了大约180天,没有任何问题,但后来我注意到奇怪的事情发生,显然ext3文件系统是非常糟糕的形状。 我有驱动器和内存testing,他们都很好。 最终,我被迫软pipe系统,并完全重新安装。 fsck.ext3只会让事情变得更糟。 现在,我不希望这种情况再次发生,所以这次我使用了XFS,而我觉得它比ext3更成熟,但是我不知道如何监视文件系统的健康状况。 xfs_check根本不会让我在安装时扫描设备。 那么,如何在系统联机时监视XFS文件系统的运行状况?

XFS:设备上没有剩余空间(但我有850GB的空间!)

我在Amazon EC2上使用了mdadm,lvm2和XFS的组合。 到目前为止,我已经成功地运行了一个由许多EBS卷构build的RAID 5卷。 EBS卷被附加并与mdadm一起使用来创buildRAID 5.然后,我使用LVM将生成的RAID呈现为单个物理卷和单个逻辑卷。 在过去,我已经能够通过添加一个新的EBS卷,附加它,然后运行以下过程来增长文件系统。 mdadm –add /dev/md0 /dev/xvdi # grow the raid… (could take a while for a large disk!) mdadm –grow /dev/md0 –raid-devices=4 # grow the LVM physical volume pvresize /dev/md0 # grow the LVM logical volume … fairly certain # -l100%PVS will make the extents use as much space # […]