嗨,没有人有任何的SAS 15k RPM驱动器将执行相比,基于sata的SSD驱动器的任何input,假设它使用sata的最新版本。 这些驱动器将在4驱动器RAID 10configuration和大小约70GB每驱动器。
现在,我们为使用主轴硬盘的标准RAID10设置的许多客户托pipeVPS。 我们正在考虑尝试一种新的体验:基于SSD的RAID10arraysVPS。 在高读/写环境(如为多个客户的VPS托pipe)中,我的知识不太清楚。 SSD是否会以这种方式失败? 我听说过关于SSD的一些坏消息 任何提示将不胜感激
我们有一个带有Adaptec 5805 RAID 1arrays的服务器,带有两个SAS 146GB磁盘。 我们需要更多的空间在这台服务器上 是否有可能用300GB HD热replace每个146GB的HD,并让每个磁盘更换后控制器重buildarrays? 第二个磁盘更换后,新空间是否自动可见?
系统将无误启动,但在locking(但仍然接受鼠标input)之前,只能进入Windows(安全模式,正常)。 尝试从一个启动的活动磁盘,我可以复制只有害羞的GB复制停止之前,访问文件系统上的任何东西需要5-10分钟来处理。 这使我相信我的arrays是坏的。 我需要从这个磁盘上复制一个53GB的文件(没有备份的邮件存储(不要问)),但我找不到任何错误诊断。
我有一个戴尔Poweredge 840服务器 ,当前有一对热插拔的146Gb SAS磁盘连接到SAS 5IR控制器 ,configuration为RAID 1。 我有两个备用插槽来添加两个添加更多存储,并且需要尽可能便宜地添加相对大量的存储。 新磁盘上的数据大多是临时文件存储。 我已经研究了将SATA存储添加到板载SATA接口 , SATA接口每个SATA磁盘的容量限制为1TB,现在正在寻找替代品。 我想知道如何将近线SAS驱动器添加到现有的控制器,以SATA价格给我大量的存储空间。 对于在同一个控制器上混合使用SAS和近线SAS磁盘,我有点紧张,即使没有卷将跨越两种磁盘types。 我正在寻找build议,这是否是一个好主意或不? 我正在考虑添加1或2个容量为2TB的磁盘。 如果我添加两个磁盘,我可能会将它们configuration为RAID 0,因为容量比容错更重要。
系统:Centos 5.5 64bit RAID:带有2个磁盘镜像的Linux软RAID Smartd抱怨系统日志中的磁盘故障: [root@xxx ~]# tail /var/log/messages Jul 3 10:22:45 w11 smartd[6043]: Device: /dev/sda, FAILED SMART self-check. BACK UP DATA NOW! Jul 3 10:52:45 w11 smartd[6043]: Device: /dev/sda, FAILED SMART self-check. BACK UP DATA NOW! Jul 3 11:22:45 w11 smartd[6043]: Device: /dev/sda, FAILED SMART self-check. BACK UP DATA NOW! Jul 3 11:52:45 w11 […]
我已经通过组合4个HDD创build了RAID 5设备块。 我的设备的名称是md1。 但是/ sys / block / md1 / queue / scheduler文件在输出cat时输出“none”。 而且在使用vim编辑它之后也是如此 /sys/devices/virtual/block/md1/queue/scheduler" E667: Fsync failed 我也试过使用sysctl.conf并join block.md1.queue.scheduler = deadline 但它又一次抛出 error: "block.md1.queue.scheduler" is an unknown key 我真的没有select。 请帮我一下
我们有一个独立的ESXi5服务器,具有以下硬件规格: – Supermicro X8DTL – IntelXeon®CPU E5506 2.13GHz – 25G内存 – 1TB HD(镜像RAID,本地SATA) 我们有大约17个VM运行,每个〜512MB。 运行Web +数据库服务器。 大约一个月前,我们遇到了服务器崩溃,经过调查,我们在/scratch/log/vobd.log中发现了类似这些错误的错误: 2013-02-21T23:30:14.054Z: [scsiCorrelator] 1657239493834us: [vob.scsi.device.io.latency.improved] Device mpx.vmhba2:C0:T0:L0 performance has improved. I/O latency reduced from 1310595 microseconds to 260642 microseconds. 2013-02-21T23:30:17.888Z: [scsiCorrelator] 1657243328201us: [vob.scsi.device.io.latency.improved] Device mpx.vmhba2:C0:T0:L0 performance has improved. I/O latency reduced from 260642 microseconds to 85292 microseconds. 2013-02-21T23:30:39.275Z: [scsiCorrelator] […]
今天,他们带来了这个旧的戴尔服务器与RAID 1arrays初始化2个硬盘。 服务器被用作系统日志聚合器很长一段时间,在我们将服务器返回给客户之前,我被委托进行一些维护。 当我在启动时imediatly打开它显示此警告: Integrated RAID Exception Detected: Volume (00:004) is currently in state RESYNCING Enter the SAS Configuration utility to investigate. 在POST后立即启动GRUB Loader,但是我有点不情愿的启动Linux操作系统,所以我重新启动服务器并进入SAS来检查问题。 当我进入SAS实用程序时,我打开了RAIDarrays属性 – 图像如下: 现在,您可能会看到“状态”为0%,驱动器PA07状态为“未同步”。 几分钟后,我注意到状态变成了1%,之后变成了2%等等。 build议启动操作系统还是等待同步完成? 另外如果我启动操作系统会发生什么? 它会中断同步吗? 这个服务器上有一个Debian Linux(SLAX发行版)和mysql数据库。
我最近拿起一堆硬件来build立一个新的家庭媒体服务器。 完全configuration后,将有20个1TB可热插拔SATA-II驱动器在Linux系统下运行。 到目前为止,我已经在多达8个驱动器的小型服务器上使用了RAID5和RAID6(不是连接),但是我想知道这是否还是个好主意。 更具体地说,我将在系统中安装六块SATA卡 – 四块PCI卡,每块四块SATA端口,两块PCI-Express x1卡,每块两块SATA端口。 (这个硬件还不是完全确定的 – 作为一个旁白,让我知道如果我可以改善它,这些插槽是目前主板上唯一可用的插槽。 我主要是在寻找什么低层次的软件系统(RAID,LVM,一个组合,完全不同的东西)来实现这个系统。 要求: 它必须可扩展到20个驱动器 – 我从四个开始,按照最大容量(最可能是一个或两个驱动器)工作。 它必须在Gentoo Linux上运行 – 对于我使用的软件,我非常灵活,但不是为了切换整个操作系统。 它必须足够可靠 ,以承受驱动器损失 – 在任何给定的时间至less有二十二个。 服务器大部分时间离我几百英里远,我不能让任何人在出现故障时立即换掉驱动器,所以它需要能够使用一个或两个驱动器一小会儿。 如果整个控制器卡可能发生故障并且arrays保持运行状态,则会给予奖励 它必须具有合理的容量 – 我希望在20个中至less有15TB可用于数据存储(而不是RAID奇偶校验等)。 更多的能力,只要不牺牲太多的完整性,就更好。 它必须向操作系统提供一个单一的统一文件系统 – 20个单独的1TB驱动器,全部使用单独的文件系统,并且单独安装,将不可pipe理(即使忽略这种设置中的驱动器故障会破坏1TB的数据)。 在提出build议时,请牢记这一点,我不介意在这方面做相当多的工作 – 只要工作正常,未来可靠,就不需要简单或即时的设置。 关于文件系统层层build议也是受欢迎的。 我目前正在使用JFS,因为它似乎performance良好,并且在读写时可以增长,但是如果有改进,我可以让我对它开放。