Articles of 硬盘驱动器

如何在zfs中重新平衡数据? (确保数据在所有条纹镜子之间传播)

以一个条纹镜像(Raid 10)为例,如果两个磁盘扩展到四个,那么两个磁盘之间的数据如何在两个镜子之间“重新平衡”(展开)呢? 也就是说,如何将写入一个镜像的文件写入两个镜像以利用条带化磁盘?

如何确定哪个文件/ inode占用给定的扇区

我在/var/log/kern.log中收到指示驱动器故障的消息。 在驱动器(ext4 – > ext3)之间复制我的$HOME消息: [ 5733.186033] sd 4:0:0:0: [sdb] Unhandled sense code [ 5733.186038] sd 4:0:0:0: [sdb] Result: hostbyte=invalid driverbyte=DRIVER_SENSE [ 5733.186042] sd 4:0:0:0: [sdb] Sense Key : Medium Error [current] [ 5733.186048] sd 4:0:0:0: [sdb] Add. Sense: Unrecovered read error [ 5733.186053] sd 4:0:0:0: [sdb] CDB: Read(10): 28 00 05 b7 2e 40 […]

如何防止Linux下的IO负载video服务?

目前我正在3台服务器上通过Nginx提供会议video。 4个内核,足够的内存(不使用交换机)和每个服务器8个驱动器的RAID-10。 不幸的是,iostat -xd 1在所有3个服务器上给我100%,iotop显示Nginx的吞吐率达到99-100%。 我一直在考虑分布式FS(但是哪一个会有帮助?); 任何其他方式来防止这种情况,而不只是购买新的服务器(涉及所有的开销…)? 请注意,这是不可能的video内存; 太多了,太大了。 记忆中只有less数人的分布也不好。

现代数据中心的共享磁盘(SAN,虚拟化等)

我是一个开发者,在外国地形上踩着这里。 请原谅天真 我使用一个将数据存储在数据库和文件系统中的应用程序。 上下文:集群和networking共享 在过去,当我们运行应用程序集群(即多个应用程序服务器面向数据)时,我们按如下方式处理文件系统: 节点A:共享“数据目录”(通过samba或nfs) 节点B,C,D等:装载“networking共享”并在其“数据目录” 降低节点B,C,D的“磁盘速度”不是最理想的,但不是一个大问题。 另请注意 :应用程序使用自己的文件locking机制。 并发写入不是问题。 问题 因此,在现代数据中心光纤通道将服务器连接到SANS,在几台服务器之间共享“大量磁盘”的最佳方式是什么? 这种“磁盘共享”被广泛使用吗? 任何操作系统特定的问题(“在Linux上工作,但在Windows上不可用”) 任何警告? 难以configuration,不可靠等? 我从系统pipe理员那里听到了很多“我们不能这么做”的问题,当我问到更多的细节时,他们说:“好吧,从技术上说这是可能的,但是我们不是这样做的” 提前致谢, 更新:感谢您的答案。 (他们都很好,我不得不select一个,对不起,如果不是你的话)正如我(有点)期待的那样:我希望你可以简单地将NTFS或XFS或任何“常规”文件系统连接到同一个“大块头” “磁盘”被certificate是天真的。 集群文件系统是票据。 而花哨的文件系统不在我们的托pipe团队的首要任务)。

是否有可能计算出硬盘上坏块的位置?

我dd_rescue硬盘驱动器,我知道坏块在哪里。 我仍然有我的驱动器,所以我可以从SMART或fdisk获取所需的任何信息。 我想知道是否有可能从实际上看到这些坏块的位置。 我听说过扇区,磁道,柱面(至less在老磁盘上),但我不清楚磁盘是如何组织的,或者将块映射到物理扇区的math。 我相信这将是一个很好的起点,我会尽快find它,但由于这是我现在的情况,所以我提前提出这个问题,这样任何人都可以帮助我更快。 理想情况下,我将会得到一个圆形的(文字)图像,并且我能够确定在磁盘的哪个位置,比如#1000。 它可行吗? 可能不是在磁盘上使用磨损平衡技术,但至less在台式机硬盘驱动器上,比如西数数码鱼子酱绿,这是我正在看的,有超过4万个坏块。 这是一个学术问题。 这个磁盘显然不再被信任,但我希望能够看到一个物理模式是否存在。

mdadm:用全新的驱动器replacearrays

我有一个服务器与三个500GB驱动器,我的大部分数据在RAID5configuration跨越三个。 我刚刚购买并安装了四个1TB硬盘,目的是从旧硬盘移到新硬盘。 我有足够的SATA端口和电源连接器一次为我所有的七个驱动器供电,所以我一直在保持旧的RAID运行,而我找出如何处理新的驱动器。 我的问题是:我应该在1TB驱动器上创build一个全新的arrays,然后移动一切,重新configurationLinux从新的MDarrays启动? 或者我应该扩大arrays,用1TBreplace三个500GB中的每一个,然后添加最终驱动器? 我已经阅读了mdadm扩展驱动器设置,这是有道理的,但我想我会使用其中一个驱动器作为完整备份,而我移动的东西,然后添加该驱动器回到数组中,一旦事情发生了运行在三个1TB的硬盘上,所以在这条路上也有一些复杂的情况,我只是不确定哪个更安全/推荐。

服务器系统驱动器上的USB棒? 好? 坏?

这是这个问题的后续。 我正在组装一个带有14个SATA驱动器的存储服务器。 我不想“浪费”操作系统的驱动器,所以我想我可以通过USB棒运行操作系统。 该系统将是非常瘦(只是一个Web服务器和SSH密码和一些自定义脚本)。 有什么理由不应该这样做吗? 像USB棒耐用性等? 你有任何有关从USB棒运行服务器系统的经验吗? 我注意到FreeNASbuild议使用USB棒来运行它。

HP ProLiant服务器驱动器兼容性

我的办公室里有一台DL360 g7和一台DL380 g8服务器,我有兴趣用更多的存储空间来replace我的g8硬盘。 我的问题是 – G8驱动器兼容g7驱动器插槽或他们需要一个不同的托盘/球童? 我知道g7和g8之间的球童转换为“聪明”的球童,从而使g7硬盘不兼容g8插槽,但我想知道,如果相反也是如此 – 即 – g8驱动器是否不兼容与G7插槽?

URE究竟是什么?

我最近一直在研究RAID5 Vs RAID6,并且由于URE额定值和驱动器尺寸的增加,我一直看到RAID5不够安全。 基本上,我发现的大部分内容都表示,在RAID5中,如果磁盘发生故障,如果arrays的其余部分是12TB,则几乎有100%的机会遇到URE并丢失数据。 12TB的数据来自这样一个事实,即磁盘读取10 ^ 14位的数据以达到一个URE。 那么,我不能到这里。 阅读是由头部进行的部门完成的,可以使阅读失败的是头部死亡或部门死亡。 也可能是由于某种其他原因,阅读不起作用(我不知道,就像一个震动头部跳跃…)。 所以,让我解决所有三种情况: 阅读不起作用:这不是不可恢复的,对吗? 它可以再试一次。 头部死亡:这肯定是无法恢复的,但是,这也意味着整个拼盘(或者至less是侧面)将是不可读的,这将是更惊人的,不是? 该部门的死亡:也完全无法恢复,但在这里我不明白为什么4TB磁盘的额定值为10 ^ 14的URE和8TB的额定值为10 ^ 14的URE,这将意味着8TB(很可能是新技术)的可靠性与4TB的一样可靠,这是没有意义的。 如你所见,从我认定的3个失败点来看,没有任何意义。 那么URE究竟是什么,具体是指? 有人可以向我解释吗? 编辑1 在第一波答案之后,似乎是这个部门失败的原因。 好的是,固件,RAID控制器和OS +文件系统已经有程序来及早检测和重新分配扇区。 那么,我现在知道什么是URE(实际上,这个名字是不言而喻的:))。 我仍然困惑于潜在的原因,主要是他们给出的稳定的评级。 有些人把失败的部门归因于外部的来源(宇宙波),然后我感到惊讶的是,URE的速度是基于读数,而不是年龄,宇宙波确实会影响更老的磁盘,因为它已经暴露更多的,我认为这更像是一种幻想,虽然我可能是错的。 现在是另一个与磁盘磨损相关的原因,有人指出,密度越高,磁畴越弱,这是完全合理的,我会按照解释。 但是, 正如这里很好地解释的那样 ,较新的磁盘不同的大小主要通过在HDD机箱中放置或多或less的相同的盘片(然后相同的密度)来获得。 这些扇区是相同的,都应该有相同的可靠性,所以更大的磁盘应该比较小的磁盘有更高的评价,扇区读取更less,这是不是这样,为什么? 这可以解释为什么新技术的新硬盘比旧硬盘没有更好的等级,仅仅是因为更高的技术收益被更高密度的损失所取代。

为什么他们使用笔记本电脑外形硬盘的存储服务器?

我见过的存储服务器通常使用2.5“驱动器而不是3.5”驱动器。 根据我的经验,较大的驱动器具有更好的容量,速度和耐用性。 为什么较小的服务器青睐? 注意这不适用于C:驱动器。