这是如何分区表loooks: (parted) print Model: ATA TOSHIBA DT01ACA2 (scsi) Disk /dev/sda: 2000GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Number Start End Size File system Name Flags 1 1049kB 2097kB 1049kB bios_grub 2 2097kB 514MB 512MB raid 3 514MB 8706MB 8193MB raid 4 8706MB 2000GB 1992GB raid (parted) (parted) quit root@condor1958:~# parted /dev/sdb GNU Parted 2.3 […]
我租用两台相同的物理服务器(在Serverloft上)。 这些服务器带有2×512 GB SSD磁盘,我已经用mdadm在RAID1中设置了它们。 这些磁盘本地安装在服务器中。 这两个系统的写入性能看起来差别很大。 根据lshw -short ,控制器是: C610/X99 series chipset 6-Port SATA Controller [AHCI mode] 第一台服务器(2个SAMSUNG MZ7TE512) host02:/tmp# dd bs=1M count=8192 if=/dev/zero of=testfile conv=fdatasync 8192+0 records in 8192+0 records out 8589934592 bytes (8.6 GB) copied, 38.4952 s, 223 MB/s 第二台服务器(2个SAMSUNG MZ7LN512) host03:/tmp# dd bs=1M count=8192 if=/dev/zero of=testfile conv=fdatasync 8192+0 records in 8192+0 records […]
我有20个设备的突袭ext4,所有的设备状况良好。 现在,当我做df -h我在“可用”下看到一个负值。 我试图用umount & mount重装RAID,但是没有帮助。 我被告知运行fsck.ext4 /dev/md0但是我得到错误信息: Filesystem has unsupported features, get newer fsck version. 所以我安装了e2fsprogs-1.43.1,当我运行./e2fsck /dev/md0我得到了很多错误: BackUp: Inode 222789841 block 696 conflicts with critical metadata, skipping block checks. BackUp: Inode 222789841 block 466 conflicts with critical metadata, skipping block checks. BackUp: Inode 222789841 block 470 conflicts with critical metadata, skipping block checks. BackUp: […]
我有一个3磁盘mdadm raid5卷(由/ dev / sd [abc]),在重塑的中间,到5个磁盘(添加/ dev / sd [df]),当服务器的电源失败。 这是在Ubuntu 8.10强大的64位服务器(内核2.6.27),mdadm版本2.6.4,从源头上build立。 ups监控守护程序足够好,可以在那个时候执行下面的命令 mdadm –stop /dev/md0 shutdown -P now 当我把盒子备份起来并运行时,我用下面的命令把raid恢复起来,因为它本身不会自动产生。 mdadm –assemble /dev/md0 /dev/sd[abcdf] 它重新恢复,重新开始,但只有4张光盘。 / dev / sdf没有超级块,所以它不会来的。 我试着把它加回来: mdadm –add /dev/md0 /dev/sdf 但是这只是把它作为一个热备,而不是失踪的第五名成员。 所以我把它删除 – 删除,因为在这个过程中的热点备件是有点没用。 更糟糕的是,这会在磁盘上添加一个超级块,将其标识为热备份。 很容易摆脱与 – 零超块虽然。 我想知道的是,我如何按摩这个磁盘,让它回到适当的地方在arrays中? 我没有理由相信数据不好,只是超级块。 还是现在不想尝试重新添加它,现在重塑已经取得进展了呢? / proc / mdstat的内容: root@FS1:~# cat /proc/mdstat Personalities : [raid6] […]
在我的家庭文件服务器上,我有一个1.5TB的软件RAID5arrays,由四个500GB的西数硬盘构成。 我有第五个驱动器,我通常作为一个热备用(但目前已经出阵),但如果我可以,我想要添加到arrays,并增长到2TB,因为我用尽了空间。 我search了一些指导,但似乎有很多不同的意见(他们中的许多人可能已经过时了)是否可行和/或聪明。 什么是正确的方式去做,或者我应该开始考虑build立一个更多的空间新arrays? 版本详情: %> cat /etc/issue Debian GNU/Linux 5.0 \n \l %> uname -a Linux magrathea 2.6.26-1-686-bigmem #1 SMP Sat Jan 10 19:13:22 UTC 2009 i686 GNU/Linux %> /sbin/mdadm –version mdadm – v2.6.7.2 – 14th November 2008 %> cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md1 : active raid1 hdc1[0] hdd1[1] 293033536 […]
我一直试图让我的突袭从grub2启动大约2天,而我似乎没有越来越近。 问题似乎是,它根本不承认我的袭击。 它没有看到(md0)等我不知道为什么或如何改变这一点。 我正在使用mdadm,2设备(本质上是raid1) raid10,f2 ,它目前正在退化 。 我已经尝试添加raid和mdraid模块与其他人一起grub安装。 我试过grub-install一些变种,例如grub-install –debug –no-floppy –modules="biosdisk part_msdos chain raid mdraid ext2 linux search ata normal" /dev/md0 我一直在寻找一个答案,我没有做,但没有运气。 在我的另一个驱动器,我打算删除RAID是初始化并安装在启动罚款,但它不是该设置的启动/根。 我的grub.cfg不能被grub识别,因为它不能读取raid分区,所以我没有发布。 md0未列在我的/boot/grub/device.map 。
我的一个Debian服务器(内核2.6.30-AMD64)拒绝启动包含initramfs根分区的软件RAIDarrays。 它使我忙于一个busybox控制台。 当我按照必要的步骤继续启动时,它工作正常(用mdadm -A启动arrays,然后让LVM使用pvscan扫描卷,然后vgchange -ay)。 我试过从启动选项rootdelay = 10开始无济于事。 此外,我已经更新了initramfs并解压它,以检查它是否真的试图组装raidarrays(它确实)。 转储到控制台之前的输出: mount: mounting none on /dev failed: No such device W: devtmpfs not available, falling back to tpmfs for /dev 然后一些lvm消息说它不能find持有根分区的卷。 有谁有线索我怎么能解决这个问题?
我想有以下raid1(镜像)设置: /dev/md0 consists of /dev/sda and /dev/sdb 我创build这个raid1设备使用 mdadm –create –verbose /dev/md0 –auto=yes –level=1 –raid-devices=2 /dev/sda /dev/sdb 这给了元数据为1.2的警告,我的系统可能无法启动。 我不能使用0.9,因为它限制了RAID的大小为2TB,我认为最新的debian(squeeze)发货的grub应该能够处理元数据1.2。 于是我创build了如下所需的分区: # creating new label (partition table) parted -s /dev/md0 mklabel 'msdos' # creating partitions sfdisk -uM /dev/md0 << EOF 0,4096 ,1024,S ; EOF # making root filesystem mkfs -t ext4 -L boot -m 0 /dev/md0p1 […]
我们有一个托pipe在AWS上的富媒体Web应用程序。 我们有几个Web服务器,我们有一个NFS服务器。 在NFS服务器(Linux服务器)上,我们有几个已安装的EBS卷,我们已经使用mdadm将不同的assembly卷作为单个RAID卷来实现。 Web服务器只需通过挂载点访问NFS存储。 亚马逊现在让我们知道,他们将在几天的时间内在这台服务器上进行电源维护。 由于我们所有的媒体都在这里,这使得我们的网站在亚马逊的工作时间内无法使用。 我们想尝试和防止这种宕机。 我以为可以通过暂时build立一个新的服务器并将EBS驱动器(raid卷)连接到该服务器,并在维护过程中让我们的Web服务器指向那里来防止服务器停机。 这是一个非常高风险的操作,因为这涉及到数TB的生产数据。 将逻辑RAID驱动器(md0)移到新的amazon实例上的安全方式是什么? 我希望我可以先从构build新服务器,安装ebs卷,并使用mdadm –assemble –scan组装RAID分区,然后从现有实例卸载,以便我可以首先testing一切正常,从而使其安装在同一时间两个实例,但我不相信这是可能的文件系统的工作方式。 如何将Linux软件RAID移动到新机器上? 提出了一种移动驱动器的方法,但并不是真正的基于云的问题。 也许有更简单的方法来防止我们的解决scheme托pipe在云端系统停机? 我已经考虑过采用EBS快照,但是它试图复制所有的千兆兆字节的安装存储,所以这不是一个实际的解决scheme。 有任何想法吗?
我有一个debian系统: Disk /dev/sda: 320.1 GB,… Device Boot Start End Blocks Id System /dev/sda1 * 1 2432 19535008+ fd Linux raid autodetect /dev/sda2 2433 2918 3903795 fd Linux raid autodetect /dev/sda3 2919 38913 289129837+ fd Linux raid autodetect Disk /dev/sdb: 320.1 GB, … Device Boot Start End Blocks Id System /dev/sdb1 * 1 2432 19535008+ fd […]