Articles of 硬盘驱动器

EC2磁盘达到100%实用程序,但重新启动后罚款

我们一直在Amazon EC2上运行一些生产服务,主要使用t1.large和t1.xlarge实例(非EBS)。 每隔一个附加(临时磁盘),经常会进入100%util状态(由iostat -xtc报告)。 当磁盘进入这种状态时,它基本上是完全不可用的。 重新启动解决了这个问题,看起来没有任何损坏。 发生显然是随机的,每隔几周就会发生一次。 我不确定是否有任何软件相关,但是我们正在运行最新的Ubuntu 10.04(Lucid)。 这些临时磁盘目前在lvm(RAID0)下运行。 以前我们使用mdadm和lvm。 有没有其他人看过这种行为之前(不知道它是特定于EC2)和任何想法如何避免它或纠正它,而无需重新启动?

为什么我的HDD分区是字符特殊设备?

我有一堆旧的1T磁盘上有一个mdadm数组。 他们已经退出了一段时间,但昨天我把他们插入到一个运行着Debian Jessie的服务器上。 最终我把arrays重新组合在一起,但是有两个驱动器拒绝重新添加。 看着这些驱动器,似乎我已经添加设备到arrays而不是(Linux RAID autodetect)分区(sdz而不是sdz1) – 我得到什么似乎适当的输出为mdadm -E /dev/sdz ,但是如果我运行mdadm -E /dev/sdz1 ,我得到mdadm: cannot open /dev/sdz1: No such device or address 。 进一步看,这两个驱动器的分区似乎是字符特殊设备,而不是块特殊: root@comp:~# file /dev/sda1 # good drive /dev/sda1: block special (8/225) root@comp:~# file /dev/sdz1 # bad drive /dev/sdz1: character special (8/209) 即使使用dd清零整个坏驱动器,然后用fdisk重新创build分区,它们仍然以相同的方式回来! 这里发生了什么? 编辑:这是什么ls说这些设备: root@comp:~# ls -l /dev/sdz* brw-rw—- 1 root […]

如何在nagios中执行像hdparm -t这样的磁盘性能testing?

通常的插件都是关于系统的已知统计数据,但是我们在使用hdparm -t的一些vmware实例上看到了非常奇怪的结果。 任何人都知道一个testing实际上做了一个磁盘写入/读取或nagios nfs挂载?

如何用mdadm重新创buildRAID 10arrays

所以我们的虚拟机已经坏掉了(它实际上是一个Azure中的Linux机器),我们在这个虚拟机上运行一个4个磁盘的RAID10arrays。 这是一个Ubuntu的盒子。 从我可以告诉四个数据磁盘是好的,这只是虚拟机被拧紧。 现在,我可以从该机器上分离磁盘并创build一个新的Linux实例,然后将这些磁盘附加到该新实例。 问题是,如何让mdadm使用这些磁盘上的数据设置RAID10arrays(我不希望它作为新驱动器被擦除)。 另外,这是否按照什么顺序我附加磁盘或将mdadm找出哪个磁盘是哪个数组?

SATA驱动器和RAID控制器推荐FreeNAS

我正在build立一个用于存储媒体(audio,video)的RAIDarrays,用于CIFS / NFS的文件服务器以及作为备份的存储库。 性能不是一个巨大的问题,但可靠性是因为这是一个档案。 我目前正在看一个3Ware或一个槟榔RAID控制器使用FreeNAS Raid5 / 6与ZFS文件系统。 在NewEgg.com网站上阅读有关不同SATA驱动器的评论,我还没有find一个获得足够积极评价的驱动器,使我可以为我的项目select它。 我正在查看的驱动器: 希捷Barracuda ES.2 1TB – 5年保修 – ST31000340NS – 159美元 三星Spinpoint F1 RAID 1TB – 七年质保 – HE103UJ – $ 149 西数RE3 1TB – 3年保修 – WD1002FBYS – $ 159 这些驱动器中的每一个售价约为160美元,这对于标准的1TB SATA驱动器来说大约是两倍,但是由于在RAIDarrays中使用这些驱动器,每个制造商推荐使用这种驱动器而不是其较低成本的同级产品。 任何人都可以评论列出的驱动器,或者可以给我一个强烈的build议,select哪个驱动器? RAID控制卡上的任何build议?

在Dell PowerEdge 2900上安装Ubuntu GNU / Linux服务器10.04时未检测到硬盘

我正在尝试在Dell PowerEdge 2900服务器硬件上安装Ubuntu GNU / Linux服务器(10.04 LTS,64位),当谈到磁盘和分区检测阶段时,它说: No disk drive was detected. If you know the name of the driver … 我切换到另一个tty,并试图看到lspci的输出,并在我看到的输出 SCSI storage controller: LSI Logic / Symbios Logic SAS1068 PCI-X Fusion-MPT SAS (rev 01) 然后它列出了一个驱动程序列表,我尝试了一些,但他们没有工作。 我如何继续? 额外信息: Dell server BIOS Revision 1.5.1 Dell SAS 5 Host Bus Adapter BIOS MPTBIOS-6.12.02.00 (2006 12.22) Copyright […]

Centos 7服务器无法看到磁盘arrays磁盘

上下文 我有一个新的服务器与CentOS 7,通过光纤通道连接到磁盘arrays。 我想在服务器的文件系统上安装磁盘arrays的磁盘,然后在其上设置一个NFS服务器,使这个存储可用于群集中的所有节点(服务器和磁盘arrays都是一个小群集的一部分,pipe理)。 服务器:公牛R423 磁盘arrays: DDN S2A6620(DirectDatanetworking) 我只使用磁盘arrays的两个控制器之一。 以下是命令lspci输出的摘录: # lspci 85:00.0 Fibre Channel: Emulex Corporation Saturn-X: LightPulse Fibre Channel Host Adapter (rev 03) 85:00.1 Fibre Channel: Emulex Corporation Saturn-X: LightPulse Fibre Channel Host Adapter (rev 03) 所以我认为我的服务器能很好的检测到FC HBA(光纤通道主机总线适配器),它似乎来自于Emulex品牌。 磁盘arrays与红帽5&6服务器兼容,所以我不确定它是否可以与CentOS 7服务器一起工作,但我决定尝试一下。 我已经按照磁盘arrays的用户指南,我已经能够从服务器远程连接到它,并且我已经完成了所有必要的configuration(创build2个磁盘的RAID 1存储池,创build一个虚拟磁盘该池将磁盘呈现给服务器,使用LUN号将虚拟磁盘呈现给主机…)。 但是用户指南并没有提到服务器端的任何信息。 磁盘arraysconfiguration 有关如何在磁盘arrays一侧执行configuration的一些详细信息。 磁盘arrays操作系统是SFA OS v1.3.0.8。 我find的最近的手册是这个 (v1.4.0)。 基本上这是我遵循的步骤(对应于文档的第3.6.5节,以及以下): 清理磁盘arrays $ […]

ZFS硬盘configuration

我只是想知道是否明智地将4x500Gb和2×750添加到相同的ZFS池? 或者我们应该只添加相同大小的硬盘到游泳池? 当我们有很多配对的磁盘时,任何文档都会非常方便或者指导我们该怎么做。

将完整硬盘转换为LVM,无需外部存储

最近,我的2TB硬盘空间不足了,所以我购买了另外一个来补充它。 我的旧驱动器安装在一个特定的文件夹(没有系统文件或任何东西)。 从技术上讲,我可以创build一个新的文件夹,并将其作为新驱动器的挂载点,但是如果我可以使用LVM将两个驱动器组合起来,以便只有一个挂载点,那将会更加简洁。 有没有办法将现有的2TB硬盘转换为LVM直播? 我没有任何外部存储器用作传输介质,也没有任何其他备份介质是足够的,所以我需要一种方法来转换它,而不实际删除任何东西(和驱动器已满,所以我不能创build一个新的分区并使用它作为备份)。

诊断高CPU等待

我有一个运行icinga / collectd /石墨约50台主机的监控服务器。 我注意到箱子上的高负载/猛击性能。 如果你看一下顶部,你会看到: Cpu:0.6%us,0.2%sy,0.0%ni,7.6%id,23.4%wa,0.0%hi,0.2%si,0.0%st 注意HUGE%wa值,据我所知,这意味着networking或磁盘瓶颈。 ifconfig显示没有丢包,没有大量的带宽,所以会留下磁盘问题,对不对? 没有太多的磁盘写入正在进行… iotop报告,我们只写了一点点每秒超过1 MB和RAID工具报告一切正常,写入caching启用。 我怎么去试图找出如何解决这个问题? 更新:iostat -x输出是: avg-cpu: %user %nice %system %iowait %steal %idle 0.62 0.10 0.31 9.65 0.00 89.31 Device: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda 0.21 33.34 83.55 16.54 1599.94 399.07 19.97 43.21 416.98 3.71 37.13