Articles of ssd

惠普存储arrays – 多个渠道?

我们的SQL服务器负载变得相当重,所有的迹象表明磁盘通道是瓶颈。 目前的惠普服务器有一个相当低端的arrays卡,我们正在寻求扩大这个服务器与智能arrays卡和外部存储arrays与SSD驱动器。 当前configuration是: DL360 G7 Smart Array P410i Windows Server 2008R2 32GB内存 目前arrays是2个300Gb SAS RAID1逻辑驱动器用于启动/操作系统,1个120Gb SATA SSD驱动器用于数据。 数据库服务器托pipe一个相当大的数据库(〜100Gb),包含实时数据和历史数据。 出于许多原因,拆分数据库不是一种select,所以目前的想法是在新arrays上有多个逻辑驱动器,每个逻辑驱动器都在自己的通道上,然后将数据库拆分为逻辑SQL分区。 例如,数组可能有: 2个SSD(RAID1) 2个SSD(RAID1) 4个SSD(RAID1 + 0) 目前,我们正在寻找像高端智能arrays卡的D2600 。 为了获得最大的性能,我们确实需要每个逻辑驱动器尽可能快地运行。 惠普的规格表明他们的顶级SSD可能会接近最大化Smart Array卡支持的6Gb连接。 不过,一些较大的SA卡表明他们支持“多种渠道”; 我不清楚这是怎么工作的。 这是否意味着,从SA到D2600的单一电缆,每个RAID组可以configuration得到它自己的6Gb频道? 或者6Gb是互连的限制,如果有的话,是否有configuration选项(甚至不同的惠普产品 – 不是试图绕过“无主观问题”的规则,诚实:)),将克服这个限制? 编辑:我不能看到任何惠普服务器将这样做,但如果有一个像样的Proliant框,将允许我拆分内部驱动器笼成两个(或更多)通道,这可能是一个“计划B” – 有谁知道这样的服务器?

与安全删除SSD磁盘相关的潜在缺陷

我需要从我的Linux托pipe服务器中取消两个SSD磁盘。 为了安全地删除我打算使用的磁盘中存储的数据: hdparm –security-erase 。 我读了这个文档 ,并build议不要有任何磁盘连接到主机,除了打算删除的。 本文指出,如果有内核或固件错误,则此过程可能导致驱动器无法使用,或者导致运行的计算机崩溃 。 该服务器当前正在生产,具有生产磁盘的软件RAIDconfiguration。 没有RAID控制器的磁盘我需要删除。 题: 这是一个在生产环境中执行的相当安全的操作,还是通过删除磁盘并在另一个主机上执行此过程来更好地执行操作? 编辑:只是一个很好的文件化程序的链接

为什么这款SSD硬盘不合格,是否可以预测?

注意:这个问题以前是closures的。 你可以阅读讨论 。 我在这里问的原因是: 此驱动器位于赞比亚农村学校的离线内容caching服务器中。 服务器是从磁盘映像创build的,所有的内容都是可以replace的。 由于赞比亚学校的预算有限,而且会有很多这样的学校,所以它的价格必须便宜。 它也必须是可靠的,因为在恶劣的道路上可能需要8个小时才能更换。 我不能问在这里什么驱动器不是“超便宜的废话”。 因此,我们正在对符合这些标准的驱动器进行自己的研究和实验。 我无法通过覆盖他们(自动重新分配)来修复坏道,这违背了我的假设,我想知道为什么。 我想也许一个安全擦除可能会修复坏道,但是在我破坏驱动之前就想要别人的意见。 我想我可能错过了可以预测失败的SMART数据。 这是一个金士顿240GB固态硬盘,在现场工作约3个月,并突然发展了坏道: smartctl 5.41 2011-06-09 r3365 [i686-linux-3.2.20-net6501-121115-1cw] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net === START OF INFORMATION SECTION === Device Model: KINGSTON SVP200S3240G Serial Number: 50026B7228010E5C LU WWN Device Id: 5 0026b7 228010e5c Firmware Version: 502ABBF0 User Capacity: 240,057,409,536 bytes […]

了解NVMe存储和硬件要求

我对基于PCIe存储的最新发展有点困惑,尤其是因为它涉及NVMe规范及其硬件兼容性。 虽然我已经广泛使用了磁盘forms的固态硬盘和一些更高端的PCIe设备,比如Fusion-io ,但是我却不了解NVMe的基本知识,并且正在寻求澄清什么types的服务器硬件支持。 例如,Supermicro 这样的广告拷贝令人困惑。 …高性能CPU PCI-E Gen3直接连接到NVMe设备。 我正在处理基于Linux的软件定义存储解决scheme,并希望使用备用的Fusion-io设备,这些设备使用专有的驱动程序( 向操作系统展示/ dev / fioX设备名称 )。 当我向供应商寻求帮助时,答复是: 新的NVMe设备界面使“fioX”设备命名过时。 这意味着我们购买过时的适配器来添加其他人没有要求的支持。 这似乎有点苛刻。 我不认为Fusion-io适配器已经过时了。 我在网上find的稀缺信息似乎暗示,NVMe只支持绝对最新一代的服务器硬件( Intel E5-2600v3 CPU和PCI 3.0芯片组 )。 但我无法validation这一点。 这是真的? 采用率是多less? 这是工程师在devise决策中考虑的事情,还是我们在谈论一个尚未完全形成的“标准”? 如果NVMe 只适用于市场上最新的系统,向供应商build议我的旧系统的安装基础不能与NVMe兼容是合理的,那么值得添加我所要求的支持?

有什么要避免使用SSD的RAID5的要点?

我的理解是SSD的写入量是有限的。 由于驱动器上的奇偶校验信息,RAID5会执行很多写操作。 所以推理说RAID5会以更快的速度杀死和降低固态硬盘的性能。 以下这篇文章的陈述,让我觉得我不完全理解,或者可能与我的上述推理不正确。 高耐用性固态硬盘的另一个特点是奇偶校验RAIDarrays。 SLC由于其本身优越的写入延迟和耐久性,非常适合这种types的应用。

在RAID 0中使用2个固态硬盘是否可靠?

我正在考虑从Western Digital 10k RPM硬盘升级到在RAID 0configuration中使用两个Intel-X25固态硬盘。 我将用它来托pipe操作系统和安装应用程序。 但是目前所有的数据都将保存在一个单独的Seagate Barracuda 7.5k RPM硬盘上。 我的目标是显着提高操作系统(Vista Ultimate)的性能和应用程序的启动。 我有两个担心 1,Intel-X25驱动器是否足够可靠,可以在硬工作机器上使用,特别是在RAID 0中有两个驱动器的情况下,故障几率是双倍。 2,我听说固态硬盘在停止工作之前的写入周期数量有限,桌面使用率过高会导致它们在几年之内失效。 我预计升级周期意味着我可能会在2年后更换我的机器。

SSD,擦除块大小和LVM:原始设备上的PV,alignment

我想安装一个新的SSD,并使用整个设备作为LVM的PV – 换句话说:我不打算在这个设备上放置一个分区。 因此,不需要在擦除块上alignment分区。 问题(S) 在vgcreate时设置–dataalignment为擦除块的大小,当vgcreate时–dataalignment为擦除块大小的倍数就足够了? 所以,假设我的SSD有一个1024k的擦除块大小,可以 pvcreate –dataalignment 1024k /dev/ssd vgcreate –physicalextentsize $(( x * 1024 ))k … 还有什么要考虑的? 假设我将ext4文件系统放在这个VG的LV上,那么将ext4-extents与LVM-PE-sizealignment是个好主意,对不对? 那么ext4-extents的大小应该是LVM-PE-size的倍数还是倍数? 谢谢你的澄清!

由于性能下降,我应该避免将两个SSD放入RAID1configuration中吗?

我有一个工作站系统,将有两个64GB的工业固态硬盘,并计划将两个磁盘在RAID1configuration冗余,这是在kickstart设置。 系统将运行CentOS 7.在研究这个问题时,我发现RHEL存储pipe理指南并不推荐SSD1使用RAID1。 红帽还警告说,不推荐在SSD上使用软件RAID级别1,4,5和6。 在这些RAID级别的初始化阶段,一些RAIDpipe理实用程序(如mdadm)会写入存储设备上的所有块,以确保校验和正常运行。 这将导致SSD的性能迅速下降。 这是我应该认真关注的吗? 我可以使用冗余吗? 再次根据RHEL文档 ,LVM镜像现在利用MD软件RAID,所以RAID警告也适用于此。 更多信息:SSD是Swissbit X-200系列(SATA),看起来过度configuration是40%。 根据硬件团队的说法,硬件RAID不会成为一种select。

擦拭很慢。 太小的熵?

包括硬盘在内的笔记本电脑都要交给我。 由于没有encryption,我想至less快速擦除它。 我知道这在SSD上并不是最佳的,但我认为比简单的可读性更好。 现在我正在运行一个现场USB棒的擦拭,这是痛苦的缓慢。 我想知道这是为什么。 当然,除了擦拭这个设备之外,电脑上几乎没有任何事情发生,所以我想熵可能是低的(entropy_avail说它是在1220)。 只是打电话同样好吗? dd if=/dev/random of=/dev/sda1 bs=1k 四次? 或者有什么办法可以调用会增加随机性的东西? 还是瓶颈完全不同?

对于L2ARC和ZIL:两个或两个较小的固态硬盘最好有一个大的SSD吗?

主要参考 ZFS L2ARC(Brendan Gregg) (2008-07-22)以及ZFS和混合存储概念(Anatol Studler的博客) (2008-11-11)包括以下图表: 题 我应该解释垂直的白线 – 在SSD层 – 作为使用单独 SSD的首选项 – 不要在单个磁盘上混用L2ARC和ZIL? 背景(对评论的回应) 就我个人而言,我不太可能在任何可用的计算机上使用L2ARC或ZIL。 (我的日常电脑是一个MacBookPro5,2,8GB内存和混合希捷ST750LX003-1AC154。没有计划用SSDreplace光驱。) 其他地方:在工作中会有一些套件的重新调整,但我没有date或完整的细节。 (Xserve RAID x2 …在这个时候我不会想象给那些ZFS,但我保持开放的态度。) 我对 L2ARC和ZIL SSD最佳实践的好奇心始于ZEVO领域的性能相关讨论,特别是下面提到的主题,即用户在单个磁盘上同时具有L2ARC和ZIL。 其他参考和讨论 L2ARC屏幕截图(Brendan Gregg) (2009-01-30) SLOG截图(Brendan Gregg) (2009-06-26) [zfs-discuss] ZFS根备份/“灾难”恢复和移动根池 (2011-01-10)build议在单个磁盘上禁止三种东西(root pool,ZIL和L2ARC) …不值得在试图pipe理同一磁盘上的所有3时可能发生的问题。 例如,如果您决定重新安装并意外地打开数据池的ZIL的内容。 不要为池组件或池共享磁盘以简化pipe理和恢复。 … – 我更感兴趣的是build议不要在单个磁盘上混合两个这样的东西。 https://superuser.com/a/238744/84988(2011-01-28 )提到“caching(L2ARCcaching)和写入日志(ZIL)到SSD”( 单数 )。 但是,因为它涉及到FUSE和Windows,所以我不认为这个答案与ZFS的更常见和更高性能的用途特别相关。 @ChrisS在2011-08-16 在Comms Room中提到了ZIL和L2ARC 。 http://forums.macrumors.com/showpost.php?p=14248388(2012-01-31 )讨论了多个 […]