Articles of btrfs

SLES 11推荐的文件系统

我们正在将一些服务器从SLES 10升级到SLES 11,而我刚刚看到不支持ext4。 我应该移动到XFS还是保持ext3? 我将把程序和数据库移动到一个新的虚拟机,所以重新格式化不成问题。 我们目前使用的是ext3,但是崩溃后的fsck或者正常的文件系统检查都很慢。 我以为ext4会在SLES 11下得到支持,因为它具有更快的fsck,但事实并非如此。 Btrfs似乎还没有准备好。 所以现在我正在考虑转移到xfs,但我不确定它如ext3一样稳定? 我看到一些关于截断文件的旧报告,但显然这些bug已经closures了。 这些磁盘有大量的大型数据库文件,所以xfs对于这种情况来说是非常完美的。

我可以在多台机器上安装一个只读的btrfs卷吗?

是否可以在多台机器上安装一个只读的btrfs挂载卷? 其中一台主机是否可以读取/写入来为其他设备提供更新? 我问这个问题的原因是我想知道是否将/ var / lib / docker挂载到多个CoreOS实例是明智的。 人们在实践私人云时会做什么? 特别是networking引导的实例。 还是应该为每个物理主机在/ var / lib / docker上创build一个独特的块设备,并将其链接到一个私有的registry? https://coreos.com/docs/cluster-management/setup/mounting-storage/

2TB + 2TB + 3TB + 3TB btrfs文件系统在RAID-1模式下有多less可用空间?

我在一个btrfs文件系统中有一对3TB驱动器,我希望通过使用btrfs device add命令添加两个2TB驱动器来扩展这个文件系统。 当前文件系统中的数据以raid1模式镜像。 我希望得到的文件系统将具有5TB的可用容量,所有raid1模式的数据。 但是, 官方维基说: 如果驱动器具有不同的大小,并且要使用每个驱动器的全部容量,则必须使用数据块的单个configuration文件,而不是raid0。 但是 , 这个答案表明,可能有补丁使用大小不匹配的设备来满负荷全数据镜像: pipe道中有一个准循环补丁来改善这一点。 当然,如果你有一个500GB和一个2TB的磁盘,在不同的设备上configuration所有的块是不可能的。 该修补程序旨在更多的情况下,如1 x 1TB + 2 x 500GB,其中每个小磁盘应该喜欢用大磁盘而不是其他小磁盘镜像/条纹。 哪个是对的?

什么样的“卷/存储pipe理”有最大的支持/function设置这些天?

(免责声明:这可能是所有其他问题的“时间限制”,我只是现在指出来,而不是牵连它) 我们基础设施的一些基本决定的一部分再一次成为卷/存储pipe理的主题。 我主要在这里谈论本地存储(或者阻止提供服务器无法智能处理的设备)。 刮蹭networking,博客,社区在我看来,BTRFS基本上已经死了,承诺的土地还没有到来,更糟糕的是我看不到项目的整体进展。 ZFS似乎有一个更大的社区,但是Linux的稳定性仍然是我不能相信的。 LVM是大多数人都知道的,但它有自己的一套prolems(快照,RAID的外部处理,…) Ceph是新的孩子,但不是没有大量胶水的存储pipe理。 而且这个系统在复杂性方面还是相当不错的,而最有趣的卖点(CephFS)仍然被标记为“还没有准备好生产” – 但是,嘿有人成为第一个尝试:) GlusterFS看起来不错,但是我们遇到了麻烦的大脑情况,所以我们的信任度相当低 到目前为止,我在这个话题上的地位。 问题是: 在接下来的几年里,如果你今天select,如果约束是Linux,你会使用什么样的存储pipe理? 我个人的重要性是这样的: 强大的社区支持 “简单”的工作(标准任务应该很容易完成后,相对较短的时间适应) 广泛支持不同的发行版(至less.deb 和 .rpm可用) 本地内核支持(或者对现场pipe理员进行低维护) (自从我上次发帖以来,已经很长时间了,所以请把我引导到更好的地方)

BTRFS新设备不能添加

我有一个raid10安装程序与当前有5个磁盘的btrfs: Total devices 5 FS bytes used 6.89TiB devid 1 size 3.64TiB used 2.83TiB path /dev/sde devid 2 size 3.64TiB used 2.83TiB path /dev/sdd devid 3 size 3.64TiB used 2.83TiB path /dev/sdc devid 4 size 3.64TiB used 2.83TiB path /dev/sdf devid 5 size 3.64TiB used 2.47TiB path /dev/sdh 当我尝试添加第6个磁盘 btrfs device add -f /dev/sdb /backup […]

如何btrfs检查根分区

我敢肯定,我有一个大脑放屁的原因是因为它晚了,但我怎么能去执行一个btrfs检查根分区? 该设备需要卸载,这是不能发生的,因为它是根分区… 谢谢

用LZO压缩在BTRFS下寻找文件性能

我打算在50TB的RAID6arrays上使用btrfs,我想启用lzo压缩。 这是生物信息学设置,大量(1 TB – 20 TB)文件中的大量search。 (该软件只获取分散在文件中的小块数据)。 我担心的是,我不明白如何寻找像btrfs这样的压缩文件系统。 文件是否需要从头开始解压缩到最先find的位置? 这会对我的设置产生巨大的负面影响。 或者一个更普遍的问题是:寻道时间的缩放文件大小与非压缩文件系统一样,或者变得更糟,例如O(file_length)

Linux-on-Linux KVM:我应该使用哪个文件系统作为guest和host?

我正在玩KVM并在Linux服务器上设置一个Linux,所以我可以 重新启动(guest)服务器 encryption客户端的rootFS,而不必执行initramfs-tricks以使远程重新启动工作。 我正在考虑使用btrfs作为文件系统,因为它是一个单一的ssd磁盘,没有RAID。 以下的想法: 如果我在主机上使用btrfs,我有非常好的数据完整性,所有校验和等 所以我可以使用快速简单的东西,甚至可以在客人的ext2? 或者我应该这样做呢?

/ var中的目录位于根分区而不是/ var分区

几个星期前,我安装了Opensuse 13.2。 我对磁盘进行了分区,以便root'/',/ var,/ tmp和/ home位于不同的分区上。 今天我注意到,虽然/ var在分区sda8上,但/ var中的所有目录(例如/ var / tmp和/ var / spool)都与sda5一起在根目录下! 这里是df和/etc/fstab转储: wsl@wsl-home:~> df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda5 20978688 6735728 13435504 34% / devtmpfs 8165516 4 8165512 1% /dev tmpfs 8172456 92 8172364 1% /dev/shm tmpfs 8172456 2272 8170184 1% /run tmpfs 8172456 0 8172456 0% /sys/fs/cgroup […]

btrfs是否跨快照共享文件部分?

我知道,现代文件系统快照只有很less的空间,直到他们开始因文件更改而发生分歧。 但是,我一直无法确定在哪个粒度btrfspipe理的变化。 换句话说,文件中的小改动是否会导致改变的快照中文件的整个重新分配,或者只有一部分文件将被重新分配? 原因是要知道如何处理超大文件的快照。