Articles of 硬盘

存储IOPS如何响应磁盘容量而改变?

所有其他条件相同,如果使用更大的磁盘,存储arrays的IOPS性能如何变化。 例如,使用10 X 100GB磁盘arrays。 测量顺序256kb块写入(或任何IOPS度量)的IOPS 我们假设测得的IOPS为1000 IOPS。 将数组更改为10 X 200GB磁盘。 具有相同RAIDconfiguration,相同块大小等的格式 我们会期望IOPS保持不变,增加还是减less? 这个变化大概是线性的吗? 即增加2倍或减less2倍(因为我已经增加了2倍的磁盘容量) 用10个50GB的磁盘重复这些问题。 编辑:更多的上下文 这个问题导致我的系统pipe理员团队之间的对话并不是很精通所有的东西存储。 (存储的许多方面都很舒适,但不pipe理SAN的细节等等)。 我们收到了一大堆新的Netapp托盘,每盘磁盘容量比现有的托盘容量高一倍。 有人评论说,新托盘的IOPS会因为磁盘较大而降低。 然后一个汽车的比喻来解释这一点。 这两个评论都没有和我保持一致,所以我想把它交给团队,即Stack-Exchange-land。 汽车的比喻是关于两辆汽车,不同的加速度,相同的最高速度,运行四分之一英里。 然后将距离改为半英里。 实际上,我记不起确切的比喻,但是因为我在互联网上发现了另外一个类似的类比,我认为这可能是一个常见的IOPS类比。 在某些方面,问题的实际答案对我来说并不重要,因为我们没有使用这些信息来评估购买。 但是,我们确实需要评估将托盘连接到现有主pipe的最佳方式,并且最好的方法是分割总量和数量。

同时挂接许多不同的外部HD

即将到来的项目需要大量的外部存储空间。 我打算购买10个2TB外置硬盘。 我需要他们全部连接到一台机器在同一时间。 我会碰到什么问题? 我计划使用2个电源sockets,并从外部供电。 我将使用USB集线器来插入所有驱动器。 我需要驱动器访问时间尽可能快。 我正在使用Ubuntu Linux(64位)。 我将能够安装10个驱动器?

Linux磁盘IO负载分解,按文件系统path和/或进程?

有没有人有经验的工具,可以通过文件系统path提供磁盘IO负载的指示。 我经常使用'iostat'实用程序来了解Linux主机上正在发生多less磁盘活动。 'iostat'提供了每个设备的细分,所以你可以看到一个特定的块设备上的活动。 但是这并没有比这更深入 – 例如,你不能在目录'/ var / log / httpd /'中查询由'httpd'生成的写入负载。

Virtualbox从一个真正的驱动器启动?

我即将冒险并在我的台式机上安装Win7 RC1。 但是我想保留访问我的旧硬盘与XP上。 我真的不想使用完整的双启动,因为这将使我的新的Win7安装在d:\驱动器,否则不会。 是否有可能使用Virtualbox从旧的实际驱动器,而不是从图像启动? 如果是的话,对于驱动程序等有什么影响,因为“新”运行的操作系统将使用VirtualBox的虚拟硬件,而不是XP认为它安装的原始硬件。

我如何检查剩余的磁盘配额?

DF只报告磁盘空闲空间,我怎么能得到我的允许的可用空间?

在备份过程中如何限制磁盘I / O?

我有一个基本上在晚上做一个简单的“tar zcf”的cron。 服务器有: 8核 – 英特尔(R)至强(R)CPU E5606 @ 2.13GHz 25GB RAM Ubuntu 12.04.2 LTS 硬件RAID 1(LSI Logic / Symbios Logic MegaRAID SAS SMC2108),带有两个2.728TB硬盘驱动器 正如你所看到的监控screenhost: http://clip2net.com/s/57YRKP 在几乎所有的焦油时间,光盘I / O都达到> 90%,并使所有其他应用程序(MySQL,Apache)减速很多。 2个问题: 备份期间磁盘I / O太高是否正常? 有没有办法限制光盘I / O,所以其他应用程序可以继续正常工作? 谢谢!

Linux:如何查看硬盘驱动器的实时字节数/秒?

我希望看到类似于Windows下的Perfmon程序的Linux。 这样的事情是否存在terminal友好而不是gui程序? 谢谢。

SSD驱动器会受益于非默认的分配单元大小吗?

在当前设置中格式化驱动器时,build议的默认分配单元大小是4096字节。 我了解大小尺寸的优缺点(性能提升与空间保留)的基本原理,但似乎固态驱动器(寻道时间大大低于硬盘)的好处可能会造成一种情况,其中一个更小的分配大小不是有害的。 如果是这样的话,它至less可以部分地帮助克服SSD(每GB大幅提高的价格)的缺点。 有没有办法确定与寻找时间有关的较小分配大小的“成本”? 或者是否有任何研究或文章build议从基于这种新技术的默认更改? (假定大小程序文件,操作系统文件,数据,MP3,文本文件等等的最平均散射)

SMART是否聪明使用?

几年前,我被告知要避免像鼠疫这样的SMART。 原因是testing对驱动器施加的压力实际上会导致失败。 这仍然是这样吗? 如果不是,运行testing的频率是多less? 如果我仍然应该避免这种情况,有什么更好的方法来监视我的硬盘驱动器的健康状况?

有多lessSMART扇区重新分配表示问题?

我有一个刚刚超过一个月的NAS设备。 它被configuration为通过电子邮件发送从硬盘驱动器的SMART数据生成的警报。 有一天,其中一个硬盘报告说一个部门坏了,被重新分配。 在第一周内,这个数字攀升到硬盘驱动器总数的六倍。 一个月后,这个数字是九个重新分配的部门。 速度肯定似乎在减速。 NASconfiguration了6个1.5 TB的RAID-5configuration的驱动器。 有了这样的高容量驱动,我预计会有一个部门不时地失败,所以我并不担心前几个部门何时搬迁。 这让我感到困扰,但其他磁盘都没有报告任何问题。 搬迁的次数或总搬迁次数,我是否应该开始担心车辆的健康? 这可能会根据驱动器的容量而变化吗?