Articles of raid1

在同一组驱动器上混合使用RAID0和RAID1

我很快在我们的一台机器上安装了一对新的驱动器,这些驱动器作为VMWare主机盒(现在正在运行VMWare服务器)。 它们将被用作一对特定虚拟机的RAID0arrays,这些虚拟机在主动使用时会产生较高的I / O负载。 该机器托pipe许多用于testing目的的相当大的VM。 由于获得小于500G的驱动器的成本(成本方面)并不重要,所以得到的arrays的大小将达到1000G,因此我正在考虑使用大块磁盘作为RAID1arrays来存储VM备份和参考副本(释放现有RAID1arrays上的一些空间)。 会有什么伤害: 将驱动器分成5个分区 将一对分区设置为初始RAID0arrays 使用这个新的物理卷创build一个LVM组 将一对分区设置为初始RAID1arrays 使用这个新的物理卷创build一个LVM组 当任何一个卷组需要扩展时 在空闲分区对中创build一个新的R0 / R1arrays 扩展相关的LVM组以包含这个新的物理卷 我怀疑以上所有都会很好,但我想知道是否有任何我不知道的问题。 例如,将驱动器分成多个arrays会影响内核有效cachingI / O的能力吗? 我已经考虑过用所有的驱动器重新安装单个RAID10arrays的机器,但是只要这台机器离线,这是不可取的,它不允许I / O负载相同的分离有单独的数组呢。

打破RAID 1作为调配系统的一种方式?

假设我有一个nix系统,其文件系统完全由RAID 1中的两个驱动器支持。如果我将这个RAID分解,我可以使用其中一个磁盘在独立的硬件上重新创build系统吗? 有没有人使用这样的scheme来构build系统?

mdadm raid1,1/2磁盘失败,安全重启?

我在/ proc / mdstat下看到以下内容 Personalities : [raid1] md1 : active raid1 sda2[0](F) sdb2[1] 976554876 blocks super 1.1 [2/1] [_U] bitmap: 4/8 pages [16KB], 65536KB chunk md0 : active raid1 sda1[0](F) sdb1[1] 204788 blocks super 1.0 [2/1] [_U] unused devices: <none> 看来/ dev / sda失败了。 但是,raid1是多余的,所以我的系统仍然能够运行。 然而,这并不是这样,我的整个文件系统已经被踢进了只读模式。 Running mdadm –detail gives me: sudo: Can't open /var/run/sudo/supertrader/18: […]

Linux软件Raid LVM恢复卷组

首先:请原谅我的英文不好:) 我们在软件RAID 1模式下使用带有3个硬盘的Archlinux服务器。 应该有两个lvm扩展分区,我认为他们应该在卷组中工作。 (我没有设置这个系统。) 通过更新系统崩溃,我不能启动它。 我拿了一个debian live持久usb驱动器,并得到raid和一个卷组分区工作。 问题是卷的另一个分区没有被加载。 试 dd if=/dev/md1 bs=512 count=255 skip=1 of=/tmp/md1.txt 只给出encryption的字符。 有没有办法恢复卷组? 如果需要更多信息,我会发布。 高级谢谢:)

Ubuntu服务器上的存储设置用于运行具有软冗余的虚拟机

我有一台服务器,我想明确地使用在Ubuntu Server 12.04下运行虚拟机。 它有大量的内存,64GB和三个大型相同的HDD。 我想通过软件冗余。 你会如何build议我设置存储?

RAID1:我可以在硬件(LSI型卡)上写'主要',所以驱动器A:100%读取和写入驱动器B:只写入?

谷歌锤已经失败了,所以我转向这个威严的机构寻求帮助:-) 我有兴趣使用Linux软件RAID套件中提供的“write-mostly”原理来制作SSD / HDD RAID1对。 这意味着我将写入两个驱动器,但几乎完全从SSD读取。 但是,我非常希望能够使用LSI RAID控制器以硬件方式进行此操作。 看完CLI手册等,我有点难住。 有没有人有任何控制器的硬件设置的经验,但尤其是LSI模型?

如何将RAID 1 HDD从一台服务器复制到另一台相同的服务器

我有一个IBM X3100M4,types2582的Windows服务器和2个500 GB的硬盘在RAID拷贝。 现在带来了新的服务器和空白的硬盘。 我怎样才能从旧服务器复制RAID硬盘到新的服务器? 我试过EaseUS,但它不能解决问题,因为它似乎只适用于台式机。

服务器RAID0:其中一个硬盘比其他硬盘占用率高。

我正在用4个磁盘testing3个带有RAID0的服务器。 在我的testing过程中,我注意到在所有3台服务器上,其中一台硬盘的占用率比较高,并且比较高,几乎比其他硬盘高4倍。 它始终是服务器上的“最后”磁盘。 据我所知,服务器中的磁盘都是相同的型号(编号),所以它们在RAID0中应该有相同的结果? (*说实话,我不知道如果服务器是软件RAID或硬件RAID) 我想知道在RAID0系统中这是否正常? 为什么一个磁盘有更高的IO等待? 我确实find了一个线索,看到我的最后一个图像显示“请求大小”,它比其他磁盘小2到3倍,这是什么意思? 也许一些设置,我可以改变磁盘? *graphics由Munin创build。 请求后的额外信息: cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid0 sda5[0] sdc1[2] sdd1[3] sdb1[1] 11713146880 blocks super 1.2 512k chunks unused devices: none mount /dev/md0 on / type ext4 (rw,errors=remount-ro) proc on /proc type proc (rw,noexec,nosuid,nodev) sysfs on […]

在raid-1上用lvm创buildxen

首先,我没有任何创buildxen,lvm和RAID-1服务器的经验,因此经过多次阅读,我偶然发现了这个Ubuntu文档来安装xen 。 但是,因为在文档中没有指定如何使用raid,我创build了一个分区,如下所示: md0 (/dev/md0) +————————————————————+ | LVM | +————————————————————+ hdd1 (/dev/sda) +—————————————-++——————+ raid || swap | +—————————————-++——————+ hdd2 (/dev/sdb) +—————————————-++——————+ raid || swap | +—————————————-++——————+ 在lvm(/ dev / md0)里面,我创build了如下的逻辑分区: +————————————————————+ | / (root) | reserved LVM for XEN | +————————————————————+ 问题是这是创build用于Xen的lvm的分区的正确方法? 如果这是错误的,请告诉我正确的方法来做到这一点 谢谢

Ubuntu软件RAID 1与RAIDarrays上的NTFS怪异卷

我试图用1个大的NTFS分区镜像两个辅助的2TB硬盘与RAID 1,我要跨越一些看起来奇怪的东西,虽然它可能只是我完全无知,因为这是我第一次安装RAID之前。 我用NTFS分区两个硬盘,因为我想与networking上的Windows计算机共享驱动器。 我在Ubuntu Disks实用程序中select了两个硬盘,并创build了一个RAID 1.在RAIDarrays下面显示了我的2 TB RAIDarrays,但是这些卷的布局奇怪: Free Space – 112 GB Partition 1 – 871 GB Unknown Partition 2 – 372 GB Unknown Free Space – 645 GB 当我尝试删除分区1时,它说(当我尝试删除分区2时也会出现类似的错误): Error deleting partition /dev/md127p1: Command-line `parted –script "/dev/md127" "rm 1"' exited with non-zero exit status 1: Error: /dev/md127: unrecognized disk label(udisks-error-quark, 0).