Articles of 突袭

Solaris 9:在驱动器更换后,使用raidctl无法pipe理镜像

我们有一对Sunfire v20z(WITH LSI MPT raid),每个镜像都有一个驱动器。 bash-2.05# cat /etc/release Solaris 9 4/04 s9x_u6wos_08a x86 Copyright 2004 Sun Microsystems, Inc. All Rights Reserved. Use is subject to license terms. Assembled 22 March 2004 这就是所build立的机器types。 我们来看看我们的arrays健康状况: # raidctl RAID Volume RAID RAID Disk Volume Type Status Disk Status —————————————————— c1t0d0 IM DEGRADED c1t0d0 OK c1t1d0 FAILED 好吧,很简单。 由于这些机器不热插拔,所以我给一个电源断电并更换了驱动器。 […]

ZFS – zpoolreplace永远不会结束

我有一个Ubuntu 14.04.1服务器上的5×3TB raidz1arrays。 上个月,其中一个驱动器死亡(听得见的点击)。 我能够用zpool replace RAID <dead drive> <new drive> 。 这完成没有问题,池再次在线和健康。 然后另一个驱动器死亡 我尝试了同样的事情,但游泳池陷入以下状态 # zpool status pool: RAID state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: […]

压力testing将硬盘驱动器连接到Hyper-V上的LSI控制器

我有一个在Hyper-V上运行的LSI 9265-8i控制器。 我怎样才能在原地对硬盘进行压力testing? 我想testing像iOPS,寻找时间等

如何将磁盘添加回RAID并replace已删除

收到RAID进入降级状态的消息: Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sda1[0] sdb1[1] 524224 blocks [2/2] [UU] md2 : active raid10 sda5[0] sdb5[1] sdd5[3] sdc5[2](F) 1128864768 blocks super 1.2 512K chunks 2 near-copies [4/3] [UU_U] md1 : active raid10 sda2[0] sdb2[1] sdc2[2] sdd2[3] 41909248 blocks super 1.2 512K chunks 2 near-copies […]

分机。 带RAID的2托架USB驱动器:btrfs RAID与内置RAID

对于备份,我想使用外部USB3驱动器:在一个2托架机箱中使用RAID 1(镜像)的两个硬盘。 作为文件系统,我将使用btrfs,因为子卷和校验和。 性能不重要,但数据安全。 对于使用RAID1,我看到3种可能性: 内置外置硬件RAID 来自btrfs的RAIDfunction(并将2个驱动器设置为独立/ JBOD) 使用来自linux的软件RAID(用于磁盘的mdadm和JBOD) 你会推荐什么? 对于内置的硬件RAID我看到的缺点,也许SMART和省电模式将不会通过控制器,不会工作。 这将取决于产品,也许智能是可有可无的,但我会错过一个省电模式(不是因为功耗和硬盘使用寿命,但由于噪音;我会使用备份系统,每天只有1-3次几分钟)。 对于btrfs RAID,我看到了一个很大的优势,即由于文件系统中的校验和,btrfs可以检测哪个磁盘已损坏,哪些部分/文件可以修复(用有效的覆盖已损坏的数据)。 硬件RAID仅在整个磁盘出现故障时才起作用,但不知道哪些运行磁盘损坏了数据。 是的,btrfs校验和在硬件RAID出现磁盘故障后也有帮助,但是通过btrfs RAID可以更容易地进行接缝,例如,如果两个磁盘的不同部分数据都被破坏了。 但我不信任组合JBOD /分机。 USB。 两个磁盘将通过一根USB电缆和一个USB集线器连接,控制器必须通过此单一/共享连接处理两个磁盘。 根据我的经验,USB可以用更简单的configuration来解决问题。 和软件RAID(mdadm)解决scheme。 我看不到其他两个有什么优势。 你怎么看? 你会推荐哪种configuration? 谢谢!

RAID5arrays通过创build更小的arrays来过度configuration?

我确实阅读了以下主题: 如何通过Dell H700 PERC RAID控制器过度configuration英特尔SSD RAIDarrays 它确实提供了很多信息,但是不具体地回答我的问题。 例如; 我有6个250 GB SSD在RAID 6这将给我约931 GB的总arrays空间。 比方说,我只从它分配500 GB到我的arrays,其余的将不会被用于过度configuration? 或者我应该仍然使用hdparm命令? 我也在Google上search过,但也没有答案。 只是想在我做一些愚蠢的事情之前把它弄清楚。 谢谢。

重buildVHD RAIDarrays

我们有戴尔PowerEdge R420和PERC H710微型RAID控制器卡。 服务器有六个物理磁盘分成两个arrays; 一个用于操作系统的RAID-1arrays和一个用于数据的RAID-10arrays。 此服务器是运行Server 2012 R2的Hyper-V主机。 RAID-10arrays包含虚拟机的所有文件,但该arrays空间不足。 我们用两个新的驱动器填充了剩余的两个空驱动器托架,但是后来发现不能简单地将RAID-10arrays扩展到新的可用空间。 每晚使用Windows Server Backup将主机的完整备份保存到外部USB3驱动器上。 build议的方法似乎是删除arrays并重build以包含新空间,然后将最新的备份恢复到新arrays。 这听起来很简单,所以我想知道是否有任何人可能遇到或知道什么时候进行这种行动。

编译服务器的硬盘驱动器/内存configuration?

我有一个工作站,3人login编译源代码。 我们的项目由大约1000个文件和GCC编译到〜200MB .elf文件(带debugging)。 我们目前的工作站是Intel Core 2 CPU X6800 @ 2.93GHz,配有2个软件–RAID0 SATA 7.2K RPM硬盘和8GB内存。 当一个人正在编译时,这个系统工作的很好,但是当两个人同时编译时,这个系统会显着减速。 使用distcc将编译分发到其他服务器会有所帮助,但当然这并不能帮助链接时间。 链接可能需要很长时间。 新服务器的硬盘驱动器/内存configuration是什么? 我希望总共花费不到五六千美元。 例如: RAID0是这个工作负载的好主意吗? 我听说RAID0可能会影响搜寻时间,我想在编译大量小文件时可能会受到影响。 如果我想支持3个开发人员,那么为我的价格范围购买3个便宜的机器还是1个大的服务器会更好吗? 鉴于我的价格范围,我应该考虑15K SCSI驱动器? 或者2个SW / HW-RAID0 SATA 7.2K硬盘性能如何? 2期间的加载示例使得: Tasks: 238 total, 1 running, 237 sleeping, 0 stopped, 0 zombie Cpu(s): 1.5% us, 3.5% sy, 0.6% ni, 90.0% id, 4.3% wa, 0.0% hi, 0.1% […]

通过LSI FC卡将XRAID连接到Sunfire – 驱动器不显示

我有一个Sunfire T1000机器(Solaris 10 10/09 s10s_u8wos_08a SPARC),里面有一个LSI7404EP-LC光纤通道卡。 这是插入到XRAID。 该系统似乎已经拿起了卡 > /usr/platform/`uname -i `/sbin/prtdiag IO Location Type Slot Path Name Model ———– —– —- ——————————————— ————————- ——— MB/PCIE0 PCIE 0 /pci@780/fibre-channel fibre-channel MB/PCIE0 PCIE 0 /pci@780/fibre-channel fibre-channel MB/NET0 PCIE MB /pci@7c0/pci@0/network@4 network-pci14e4,1668 MB/NET1 PCIE MB /pci@7c0/pci@0/network@4,1 network-pci14e4,1668 MB/NET2 PCIX MB /pci@7c0/pci@0/pci@8/network@1 network-pci108e,1648 MB/NET3 PCIX MB /pci@7c0/pci@0/pci@8/network@1,1 network-pci108e,1648 […]

HP DL185 – 非常慢的磁盘读取速度

我有一个HP DL185 G6服务器(12磁盘型号),具有以下规格: 四核至强2.27GHz 6GB内存 带电池备份的HP P212 RAID控制器 2个128GB 15K SAS 3.5“(用于操作系统的RAID-1) 4 x 750GB 7.5K SAS 3.5“(数据为RAID-5,2TB可用空间) 操作系统是Ubuntu Server 9.10。 两个驱动器都被格式化为EXT4。 我们发现RAID-5arrays的读取速度很差。 磁盘testing结果如下: sudo hdparm -tT /dev/cciss/c0d1p1 /dev/cciss/c0d1p1: Timing cached reads: 15284 MB in 2.00 seconds = 7650.18 MB/sec Timing buffered disk reads: 74 MB in 3.02 seconds = 24.53 MB/sec 有关信息,RAID-1arrays执行如下: sudo hdparm […]