我在安装在同一台机器上的不同驱动器上的两个lzo压缩BtrFS文件系统之间复制了大量文件。 看来这些文件正在被重新压缩。 有没有办法避免这种情况?
我有一个btrfs RAID 6.我有糟糕的硬盘驱动器,一个失败,另一个在恢复过程中失败。 现在我没有平等,不能重build – 第三个驱动器抛出读取错误的几个部门。 由于我不能删除它,所以我使用dd覆盖了零的坏扇区。 现在在重build期间,我得到了一些这样的错误: BTRFS信息(设备sdc):csum失败ino 257关3985240064 csum 2566472073预期csum 1136819032 …然后 内核BUG在/build/linux-SMWX37/linux-3.12.9/fs/btrfs/extent_io.c:2082! 重build停止 我认为Btrfs不知道没有任何修复的function,所以会抛出一个错误并中止。 我想我可以只删除受影响的文件,但inode 257不映射到任何东西。 btrfs inspect -inode inode-resolve -v 257 / data ioctl ret = -1,错误:没有这样的文件或目录 任何build议手动清除inode 257,否则修复我的文件系统?
在我们公司,我们在多台服务器上有很多的kvm客户端,大多数客户端运行的是Ubuntu 16.04以及他们的主机系统。 select的文件系统成为EXT4,为客户和主机。 最近我使用了BTRFS提供的一些非常棒的快照function来设置增量备份的备份服务器。 一些研究提供了一个从不使用BTRFS的KVM主机的线索,因为FS的碎片减慢客户端,直到他们最终甚至冻结。 在KVM客户端上是否有build议/不要使用BTRFS? 我们正在重新考虑客户和主机的FSselect,使用XFS比EXT4(客户机/主机还是单方面)有优势?
我在Linux机器上有3个相同的内部7200 RPM SATA硬盘驱动器。 我正在寻找一个存储设置,这将给我所有这一切: 不同的数据集(文件系统或子树)可以具有不同的RAID级别,因此我可以select性能,空间开销和不同数据集的风险权衡,同时拥有less量物理磁盘(非常重要的数据可以是3xRAID1,重要数据可以是3xRAID5,不重要的可重复数据可以是3xRAID0)。 如果每个数据集都具有明确的大小或大小限制,则可以扩大和缩小大小限制(如果需要,可以离线) 避免使用内核模块 R / W或只读COW快照。 如果是块级快照,则在快照过程中文件系统应该同步并停顿。 能够添加物理磁盘,然后增大/重新分配RAID1,RAID5和RAID0卷以利用新的主轴,并确保没有主轴比其他主轴热(例如,在NetApp中,将RAID-DP RAID组扩展了几个磁盘将不会在没有明确的重新分配的情况下平衡它们之间的I / O) 不需要,但不错: 透明压缩,每个文件或子树。 如果像NetApps一样首先分析数据的可压缩性并仅压缩可压缩数据,则更好 重复数据删除不具有巨大的性能损失或需要大量内存(NetApp在周末会执行重复数据删除,这很好) 对ZFS等无提示数据损坏的抵制(这不是必需的,因为我从来没有看到ZFS报告这些特定磁盘上的数据损坏) 存储分层可以是自动的(基于caching规则)或用户定义的规则(是的,我现在拥有全部相同的磁盘,但是这将使我可以在将来添加读/写SSDcaching)。 如果是用户定义的规则,则这些规则应该能够在文件级别而不是块级别上升级到SSD。 节省空间的小文件打包 我在Linux上试过ZFS,但是限制是: 升级是额外的工作,因为该软件包位于外部存储库中,并与特定的内核版本绑定; 它没有与包pipe理器集成 写入IOPS不会随着raidz vdev中的设备数量而扩展。 无法将磁盘添加到raidz vdevs 无法在RAID0上select数据,以减less开销并提高性能,而无需额外的物理磁盘或为ZFS提供磁盘的单个分区 LVM2上的ext4看起来像一个选项,除了我不能分辨是否可以收缩,扩展和重新分配到新的RAIDtypes的逻辑卷(当然,我可以在一堆文件上试验LVM)。 据我所知,它没有任何好的东西,所以我想知道是否有更好的东西。 我曾经看过LVM的危险和警告,但是再一次,没有一个系统是完美的。
我build立一个电子邮件系统,并考虑一些文件系统,支持在线resize,停电时安全,并不限制每个目录的文件数量(或者至less可以容纳每个目录几百万文件) 我想知道哪种文件系统最适合这种情况。 你能帮我吗? 提前致谢! PS:我分层为我的电子邮件存储为: 在drbd(/ dev / drbd0)之上的第三层: 文件系统(XFS,JFS,Btrfs,Reiser4,…) 第2层: LVM2逻辑卷上的DRBD(双主模式) 第1层: 物理卷上的LVM2(/ dev / sdc,/ dev / sdd,…) 第0层: 物理卷(sdc,sdd,…)是硬件RAID10(启用“写入caching模式”) (每个“物理卷”实际上是4个HDD) 另一个问题:你在我的devise中看到错误吗? 编辑:我使用3.2内核的Ubuntu 12.04 LTS。
我做了4个清洁安装的debian 6,并测量了一些平均虚拟包的安装时间。 FS选项是默认的。 time apt-get install build-essential 我得到了很奇怪的结果(min:sec,less is faster): XFS: 3:12 btrfs: 2:45 ext3: 0:30 ext4: 0:50 XFS和btrfs有什么问题? 比ext3慢6倍? 难道我做错了什么? 更新(一些细节): 所有LVM卷都是虚拟机本地,并且处于空闲RAID。 CDROM镜像是本地和相同的,互联网连接是稳定的,它最多10-15秒。 所有可见的减速都是在下载之后:XFS和btrfs客人在每次Unpacking都会考虑超过1秒。 低级高速caching被禁用。 主机节点在每个安装空闲,没有活动的客人,但一个。
核心 根据BTRFS wiki的支持,3.12内核是绿色的,而Wheezy内核是中性的。 我已经从wheezy-backports安装了3.12内核,所以我正在使用推荐的内核。 BTRFS工具 该软件包在wheezy-backports中不可用: $ apt-cache policy btrfs-tools btrfs-tools: Installed: 0.19+20120328-7.1 Candidate: 0.19+20120328-7.1 wiki对这个包的0.19 2012版本是中立的,即它不在推荐的绿色突出部分,但它也不在红色的危险区域。 所以看来我可能需要更高版本? 题 使用当前版本的工具从backports内核运行btrfs是否安全?
在运行使用HDFS的Hadoop集群(因此数据已经被复制3次)时,我们经常遇到ext4的问题,因为一些坏扇区(文件系统无法读取或写入)导致ext4重新挂载文件系统。 到目前为止,我们正在努力更换磁盘,但是我偶然发现了btrfs,这是元数据重复,我对btrfs在这种情况下如何反应感兴趣? 数据错误对我们来说并不重要,因为数据已经由HDFS进行校验和复制,但是更强大的元数据处理(例如,如果元数据不能在一个地方被写入,使用重复的元数据)将会是有益的,因为理论上只读的重新加载和所需的fsck不应该经常发生,如果我们将切换到btrfs … 那么在这里,任何人都可以运行任何btrfs而不用突袭desktop-hdds,并且可以告诉我这个文件系统对于中等错误有多强大? 例如,单个磁盘上的元数据复制是否用于修复损坏的元数据,或文件系统是否失败?
我打算使用btrfs发送/接收来同步两个文件系统,并在备份上保留一些较旧的快照(如时间机器)。 现在如果用户要求我从所有备份快照中删除文件或目录,会发生什么情况,因为它包含敏感数据? 我担心这是不可能做到这一点,仍然可以使用发送/接收。 这是正确的吗?
我想要build立一个带有两个WD Red 4TB磁盘的BTRFS RAID1设置,它拥有4K扇区。 由于我在第一次将数据复制到正确的位置(是的,它会被备份),所以我很想把它做好。我的问题是高级格式化磁盘是否需要关于扇区alignment和大小的特殊考虑。 在过去,我知道我必须处理这个问题,例如设置MDADM + LVM和ZFS(ashift = 12),但是我找不到任何有关BTRFS的信息(除了特定于SSD的内容,例如这里 ) 。 我曾计划以下列方式使用没有分区的整个磁盘: $ mkfs.btrfs -m raid1 -d raid1 /dev/sdX /dev/sdY 所以,考虑到我找不到任何东西,我能相信BTRFS只是做“正确的事情”吗? 我怎样才能控制它呢? 我检查了GParted中的结果,并显示了磁盘信息 First sector: 0 对于这两个驱动器,这似乎是错误的,因为通常GParted排列第一个扇区MB,这将有一个2048的第一个扇区,我已经看到我在另一个磁盘上创build的BTRFS 分区 (但我不知道)。 也许我应该在两个驱动器上创build一个跨磁盘的BTRFS分区,然后使用RAID1中的那些分区? 顺便说一下:有没有使用整个磁盘与我应该考虑的分区的利弊? 希望有一些经验的人可以帮助我。