我的戴尔PowerEdge R210有问题。 机器与Centos 6,今天系统日志开始通知硬盘失败。 1月6日03:20:12 centos6内核:LSIdebugging日志信息31080000为通道0 ID 0 Jan 6 03:20:12 centos6 kernel:sd 0:1:0:0:[sda]未处理的检测代码 Jan 6 03:20:12 centos6 kernel:sd 0:1:0:0:[sda]结果:hostbyte =无效的driverbyte = DRIVER_SENSE Jan 6 03:20:12 centos6 kernel:sd 0:1:0:0:[sda]感知键:中等错误[当前] Jan 6 03:20:12 centos6 kernel:Info fld = 0x21a9055 Jan 6 03:20:12 centos6 kernel:sd 0:1:0:0:[sda] Add。 意义:未收回的读取错误 Jan 6 03:20:12 centos6 kernel:sd 0:1:0:0:[sda] CDB:Read(10):28 00 02 1a […]
我运行的是Debian,需要安装一个NFS服务器。 我的服务器有五个相同的2TB磁盘。 我将需要设置文件夹配额。 我计划使用软件突袭,将5个磁盘中的3个放入一个RAID 5池中,并使用剩余的两个磁盘作为备份空间。 我觉得使用RAID和配额和NFS是有点痛苦的pipe理。 我很乐意使用类似ZFS的工具来使所有这些工作更容易,但是我想知道Linux中是否有任何有竞争力的软件。 作为一个新手系统pipe理员,我想知道在Linux下是否有更好的系统来完成这一切。
很长一段时间,我一直在考虑在几台服务器上切换到RAID 10。 现在Ubuntu 10.04 LTS已经上线了,现在是升级的时候了。 我使用的服务器是HP Proliant ML115( 非常好的价值)。 它有四个内部3.5“插槽,目前我正在使用一个驱动器的系统和一个RAID5arrays(软件)的其余三个磁盘。 问题是这会在启动驱动器上创build一个单点故障。 因此,我想切换到一个RAID10arrays,因为它会给我更好的I / O性能和更高的可靠性。 问题只在于支持RAID10的良好控制器卡(如3Ware)的成本几乎与服务器本身相当。 而且,对于Grub来说,软件-RAID10似乎不能很好地工作。 你有什么build议? 我应该继续运行RAID5吗? 有没有人能够成功地安装软件RAID10没有启动问题?
我试图做一个现有的Linux Ubuntu安装RAIDarrays。 我正在按照这个教程… http://howtoforge.org/software-raid1-grub-boot-fedora-8 经过一百万次的事物清单后,我终于明白发生了什么事情。 你让RAID设备,在你的新的空盘,复制你的旧/驱动器,设置grub menu.lst,fstab,mtab initrd和grub MBR都指向RAID设备(我已经定义和正在工作),然后重新启动。 一旦你启动,你现在运行在RAID设备(/ dev / md0)然后你只要把你的原始驱动器上的RAIDarrays,同步,并说你完成了。 所以我设置我的menu.lst主要加载从raid设备的内核和initrd,并故障转移到我的原始(仍然完好)旧磁盘。 当我重新启动时,它总是故障切换。 我启动机器,运行我的新的GRUB条目,它说:“找不到错误15文件”。 网上有很多关于它的东西,似乎没有任何帮助。 唯一奇怪的是当我用grub设置MBR时,你会说“root(hd0,0)”,我终于理解它的意思了,它应该说文件系统types是ext2fs,分区types0xfd或类似的东西那。 我没有说什么。 但是当我运行安装程序(hd0)和设置(hd2)时,它说正确的驱动器是正确的。 所以我认为它的工作。 但不能从md0设备加载initrd /内核。 我唯一想到的另一件事情是,grub怎么知道什么是raid设备。 内核没有加载,软件raid模块没有加载,怎么能愚蠢的小grub有什么想法从哪里加载initrd? 所以我在想,好的,从/ dev / md0到/ dev / sdc1(新的raid驱动器)有一个映射,但是我没有看到可能发生的情况。 对于踢,(我做了很多次,以各种组合)我试图设置grub menu.lst尝试从root = / dev / sdc1(我的新驱动器)加载initrd和内核,它仍然说没有find文件。 所以无论是grub mbr安装程序不工作,或者我错过了一些非常简单的东西。 有任何想法吗? 这里有一些更多的信息... root @ io:〜#cat / proc / mdstat 个性:[线性] [多重] [raid0] [raid1] [raid6] […]
从mdadm手册页: “在创buildRAID5arrays时,mdadm会自动创build一个具有额外备用驱动器的降级arrays,这是因为将备用arrays构build到降级arrays中通常比在非降级但不干净的arrays上重新同步奇偶校验要快。这个特性可以用–force选项覆盖。“ 所以我有4个硬盘我想要放入一个数组…我使用的方法指定使用其中的一个作为'备用'… 又名: mdadm –create –verbose / dev / md0 –level = 5 –raid-devices = 3 / dev / sdb1 / dev / sdc1 / dev / sdd1 –spare-devices = 1 / dev / sde1 我不明白的是为什么发生这种情况,我的假设是,我最终会得到一个3驱动器arrays和一个热备份…如果我不想这样做,我想要一个4驱动器arrays,我看到我可以用-force选项来做 我只是想知道为什么这是默认的,如果我错过了什么… 提前致谢。
我有一台Centos 5.4服务器在生产中,2个驱动器在软件RAID1中。 最后一天/ var / log / messages有很多消息,表明其中一个驱动器已准备好失败: Sep 23 00:48:38 milkyway kernel: SCSI device sda: 1465149168 512-byte hdwr sectors (750156 MB) Sep 23 00:48:39 milkyway kernel: ata1.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0 Sep 23 00:48:39 milkyway kernel: ata1.00: irq_stat 0x40000001 Sep 23 00:48:39 milkyway kernel: ata1.00: cmd 25/00:10:31:21:8c/00:00:28:00:00/e0 tag 0 […]
我有/和/ home的软件RAID 1,似乎我没有得到正确的速度。 从md0读取我得到大约100 MB /秒读取sda或sdb我得到大约95-105 MB /秒 我以为我会从两个驱动器获得更多的速度(同时读取数据)。 我不知道是什么问题。 我正在使用内核2.6.31-18 hdparm -tT / dev / md0 / dev / md0:定时caching读取:2.00秒中2078 MB = 1039.72 MB /秒定时caching磁盘读取:3.01秒中304 MB = 100.96 MB /秒 hdparm -tT / dev / sda / dev / sda:定时caching读取:2.84秒中的2084 MB = 1041.93 MB /秒定时缓冲磁盘读取:3.02秒中的316 MB = 104.77 MB /秒 hdparm -tT / dev […]
我正在为我正在开发的一个项目build立新的服务器。 他们将全部运行Ubuntu Server x64(即将推出10.04版本),并需要RAID 1热插拔configuration(只有两个驱动器),以最大限度地减less停机时间。 我并不担心Raid的performance。 服务器硬件将有足够的CPU能力,我只做一个RAID 1.我唯一的要求是: 包括操作系统在内的所有东西都必须镜像。 驱动器出现故障时不能停机。 我需要能够将故障驱动器换成另一个驱动器,并自动重buildRAID(或者通过运行一个简单的脚本)。 我想知道是否内置的Ubuntu软件RAID可以处理这个,特别是热插拔部分。 10.04看起来很有希望。 我正在考虑购买3Ware 9650SE-2LP-SGL RAID控制器,但是随着我们购买的服务器数量的增加,总体价格会有所提高。 任何build议都将不胜感激。 谢谢。
为我的Debian Squeeze媒体服务器订购了Adaptec 1420SA RAID卡,但没有检查是否兼容,原因是它使用了一个名为hostRAID的东西,这需要Debian不能使用的特殊驱动程序。 我仍然可以使用该卡作为普通的控制器,只需使用操作系统软件RAID? 我不是在寻找速度,只需要镜像一些将用于存储的驱动器,操作系统将驻留在连接到服务器的板载控制器的磁盘上,这样系统就不会从Adaptec控制器上的任何驱动器启动。
对于使用madadm的linux软件RAID,确实增加了一个硬盘驱动器,并在RAID上增长,破坏了已经在RAID上的数据,或者它保存了所有的东西?