我想要build立一个带有两个WD Red 4TB磁盘的BTRFS RAID1设置,它拥有4K扇区。 由于我在第一次将数据复制到正确的位置(是的,它会被备份),所以我很想把它做好。我的问题是高级格式化磁盘是否需要关于扇区alignment和大小的特殊考虑。 在过去,我知道我必须处理这个问题,例如设置MDADM + LVM和ZFS(ashift = 12),但是我找不到任何有关BTRFS的信息(除了特定于SSD的内容,例如这里 ) 。 我曾计划以下列方式使用没有分区的整个磁盘: $ mkfs.btrfs -m raid1 -d raid1 /dev/sdX /dev/sdY 所以,考虑到我找不到任何东西,我能相信BTRFS只是做“正确的事情”吗? 我怎样才能控制它呢? 我检查了GParted中的结果,并显示了磁盘信息 First sector: 0 对于这两个驱动器,这似乎是错误的,因为通常GParted排列第一个扇区MB,这将有一个2048的第一个扇区,我已经看到我在另一个磁盘上创build的BTRFS 分区 (但我不知道)。 也许我应该在两个驱动器上创build一个跨磁盘的BTRFS分区,然后使用RAID1中的那些分区? 顺便说一下:有没有使用整个磁盘与我应该考虑的分区的利弊? 希望有一些经验的人可以帮助我。
我需要从LVM分区的1TB磁盘克隆一个CentOS安装到几个相同的机器上。 由于只安装和configuration了操作系统和一些软件,所以磁盘大部分是空的。 没有LVM我会复制整个分区表,然后我会使用partclone逐个克隆分区: sfdisk -d /dev/sda | sed -e 's/sda/sdb/' | sfdisk /dev/sdb partclone.ext4 -c -s /dev/sda# -o – | partclone.ext4 -r -s – -o /dev/sdb# 但是我认为它不适用于LVM。 当然我可以用dd来克隆整个磁盘: dd if=/dev/sda of=/dev/sdb 但是和分体相比,花费的时间太多了。 有没有办法更快地克隆LVM分区? 我认为一个可能的解决scheme是使用dd将LVM分区克隆到另一个磁盘中的常规分区,然后使用partclone将新磁盘克隆到其他计算机。 但是我不知道这样的事是否会起作用: dd if=/dev/mapper/vg_node07-lv_root of=/dev/sdb1 它可以工作吗? 你能告诉我其他解决scheme吗?
嘿家伙我一直在我的NAS使用服务器2012r2与存储空间。 驱动器是现成的7200转驱动器 驱动器是bitlockerencryption的 驱动器处于8磁盘奇偶校验布局 我的问题是这个。 使用SMB多通道我已经能够在大约2.5秒内以每秒200MB的速度传输一个500 MB的文件到我的NAS,但我看到NAS在未来10秒内将该文件复制到磁盘。 为什么要复制到磁盘需要很长时间? 当然,存储空间中的8个磁盘每秒可以写入20-40MB以上的数据。 networking利用率最高,磁盘利用率最低 问题来了,当我试图写大文件3 + GB的服务器,因为传输速度将从200MB /秒下降到几乎0,而它写入磁盘的一切已被caching。
在Debian 8安装过程中,我正准备一个装有4个磁盘的服务器。 系统configuration后不久,SMART检测到一个脱机不可纠正的扇区错误,因此我认为在服务器仍在testing平台上时更换可能发生故障的磁盘是一个好主意。 但是,其中一台MD设备仍在重build,估计一个月左右的完成时间。 主要的问题是: 安全/正确的手动失败,并从数组中删除磁盘,而仍然同步? 有4个500 GB的SATA每个分为4个分区,并组装成4个RAID5设备md [0-3]。 整个过程看起来,我假设,这样(我宁愿做一个磁盘热插拔的好奇心,以防万一我必须做一个现场服务器有一天): 在所有的mdX设备上都失败了 从arrays中删除驱动器 物理更换驱动器 rescan sata如果需要echo "0 0 0" >/sys/class/scsi_host/host<n>/scan 使用sfdisk复制分区表,例如sfdisk -d /dev/sda| sed 's/sda/sdc/'| sfdisk /dev/sdc sfdisk -d /dev/sda| sed 's/sda/sdc/'| sfdisk /dev/sdc 添加驱动器到相应的mdX设备
我有一个prefork / fork守护进程。 在我看来,主进程经常消耗磁盘: PID TID RDDSK WRDSK WCANCL DSK CMD 16830 – 7264K 48696K 18624K 10% our daemon 从strace我看,它只在这段时间分叉: 1461316357.209106 clone(child_stack=0, flags=CLONE_CHILD_CLEARTID|CLONE_CHILD_SETTID|SIGCHLD, child_tidptr=0) = 16203 <0.002074> 1461316357.211241 clone(child_stack=0, flags=CLONE_CHILD_CLEARTID|CLONE_CHILD_SETTID|SIGCHLD, child_tidptr=0) = 16204 <0.000843> 1461316387.241264 clone(child_stack=0, flags=CLONE_CHILD_CLEARTID|CLONE_CHILD_SETTID|SIGCHLD, child_tidptr=0) = 19984 <0.002144> 1461316387.243471 clone(child_stack=0, flags=CLONE_CHILD_CLEARTID|CLONE_CHILD_SETTID|SIGCHLD, child_tidptr=0) = 19985 <0.000990> 1461316388.851070 clone(child_stack=0, flags=CLONE_CHILD_CLEARTID|CLONE_CHILD_SETTID|SIGCHLD, child_tidptr=0) = 20063 <0.002046> […]
我有一个项目开始实施一个新的备份解决scheme,跨1500个物理服务器的遗产。 我需要得到的信息位之一是每个服务器上有多less驱动器插槽可用(所以我们可以添加所需的磁盘或计划购买机箱已满的MD设备)。 仅供参考,我们将备份到本地磁盘,重复数据删除和辅助数据中心)是否有任何racadm命令或脚本我可以运行得到这个信息? 我们运用一系列R610 – R630和R710-730的产品,结合驱动器和底盘configuration。 提前谢谢了
这让我在两周内遇到了一个CentOS 7开发服务器的问题。 我做了几次互联网search,但没有任何信息帮助我。 所有人都有同样的错误信息,我已经设法解决他们的问题。 我扩大了50GB的主分区,我重新启动服务器。 3天,没有问题。 我可以通过SSH和Samba访问它。 一夜之间,他迷迷糊糊,不再工作。 我只能访问控制台,没有别的。 通过search互联网,我尝试了几个命令: df -h df -ih du -h -max-depth = 1 –exclude = mnt mount -o remount,inode64 / 还有很多其他的命令(我不记得)… 我不知道该怎么办。 有人能帮我吗 ? 我已经在Google上search了很多,但是对我来说没有任何作用。 谢谢 ! 高清:50GB到100GB 操作系统:CentOS 7 FileSystem:xfs – – – 解决 我解决了这个问题。 Samba的文件没有正确的Unix权限。 他们在0755,我把他们在0700 … (看看日志文件)
我正在寻求关于如何从100%完全vSAN恢复的build议和意见(没有显而易见的,重置为工厂选项)。 我有一个完全在vSAN支持上运行的8节点ESXi群集。 由于供应商的情况,我不希望进去,总的磁盘容量小于存储要求。 随着vSAN最终的结果是100%使用的墙壁很难碰到,处理它以及一个鸡蛋打到一个瓷砖地板。 由于主机本身也从vSAN启动/活动, 当这种情况发生时,主机被locking,其中几个崩溃,大大减less了已经完整的vSAN上的可用磁盘大小。 我已经能够重新获得一些主机的访问权限,但是如果vSAN颠簸磁盘妄图重buildarrays,则响应速度非常慢并且vCenter不可用,所以我只能使用SSH和vCenter来pipe理单个主机客户。 这消除了我对vSAN对象的大部分控制,所以我发现我的恢复选项受到严重限制。 几点: 我清楚知道,将SAN技术填充到100%的容量是灾难的秘诀,所以让我们跳过那些明显的和无益的观察。 我理解并接受数据丢失在这里几乎是不可避免的,但是我希望尽可能多地保存数据,同时删除我需要的数据,以便将群集恢复到function状态。 制造商已经build议集群必须重置为工厂,但是我看到很多情况下,社区可以提供更好的答案。 由于集群不起作用,我愿意承担风险,并尝试通常无法解决的激进思想。
我有一个由6个磁盘组成的ZFS池,排列成3个镜像。 该服务器是一个带Xeon CPU的Supermicro X11SSM-F,32 GB运行Ubuntu 17.04的ECC内存。 我使用2个Icy Dock MB154SP-B物理地托pipe磁盘,主板上有8个SATA3接口,所以磁盘直接提供给ZFS(中间没有RAID卡)。 这个设置运行良好,直到最近。 然后我注意到在运行zpool status ,最后的擦洗已经修复了一些数据: $ sudo zpool status pool: cloudpool state: ONLINE scan: scrub repaired 2.98M in 4h56m with 0 errors on Sun Jul 9 05:20:16 2017 config: NAME STATE READ WRITE CKSUM cloudpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-ST8000VN0022-2EL112_ZA17FZXF ONLINE 0 […]
我有我的自定义NASconfiguration为空转20分钟后减速驱动器。 刚才我检查了/proc/mdstat ,注意到一个驱动器被标记为失败,但是SMART显示驱动器处于非常好的状态。 因此我怀疑md-raid认为spin-up时间太长,标志着drive失败。 重新添加和重build似乎也不成问题。 dmesg显示以下有趣的线条,我在Google上找不到太多东西。 [97144.228682] sd 0:0:2:0: attempting task abort! scmd(ffff97f7b14ce948) [97144.228688] sd 0:0:2:0: [sdc] tag#0 CDB: opcode=0x12 12 00 00 00 24 00 [97144.228692] scsi target0:0:2: handle(0x000c), sas_address(0x5001438020b9ee12), phy(18) [97144.228694] scsi target0:0:2: enclosure_logical_id(0x5001438020b9ee25), slot(49) [97148.184253] sd 0:0:2:0: task abort: SUCCESS scmd(ffff97f7b14ce948) [97148.235864] mpt2sas_cm0: log_info(0x31110101): originator(PL), code(0x11), sub_code(0x0101) — last message repeated a […]