Articles of ssd

如何发送“ATA安全擦除”命令到SSD?

擦除支持SED的SSD的一个很好的方法是更改密码/密钥 。 但如何处理那些没有SED支持? 这篇文章说 幸运的是,可以擦除大多数SSD,尽pipe这比擦除更接近“重置”。 “ATA安全擦除”命令指示驱动器清除所有存储的电子,迫使驱动器“忘记”所有存储的数据。 该命令将所有可用块重置为“擦除”状态,这是TRIM用于垃圾收集的目的。 题 我想这是用hdparm可以完成的,所以有人知道这是什么命令吗?

ZFS L2ARC用于镜像池

我正在阅读关于我的ZFS的L2ARC。 我目前有两个池,一个用于数据,另一个用于Linux容器和虚拟机。 我想要一些帮助L2ARC,我知道如何添加它,但不知道是否会使我受益。 我正在运行带有6-8个LXC容器的Ubuntu 16.04,有时候还有一个虚拟机或两个虚拟机,我想知道是否添加L2ARC将有助于我的虚拟机和LXC容器的性能。 当前设置 pool: black state: ONLINE scan: scrub repaired 0 in 3h57m with 0 errors on Mon Jul 11 04:12:35 2016 config: NAME STATE READ WRITE CKSUM black ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WD10JFCX-68N6GN0_WD-WX91A65P0T3Z ONLINE 0 0 0 ata-WDC_WD10JFCX-68N6GN0_WD-WXA1EA4CSNJF ONLINE 0 0 0 errors: No known data […]

具有不同高清types的RAID镜像

SSD和非SSD可以在镜像RAIDconfiguration(非软件)中设置吗?

服务器响应每个命令的“总线错误”

我有一台专用于MySQL服务器的Linux机器,负载相当高。 今天我醒了,惊恐地发现数据库服务器已经closures。 我可以通过SSH连接到它,但它是响应bus error的每一个命令: [root@r1304 home]# ls Bus error [root@r1304 home]# tail /var/log/messages Bus error [root@r1304 home]# reboot Bus error [root@r1304 home]# free -m Bus error [root@r1304 home]# chkdisk Bus error 我去了数据中心,并做了一个硬复位,似乎有帮助,但经过半个小时的情况再次出现,现在我甚至不能通过SSH连接了。 任何想法这可能是什么? 如何诊断这样的问题以及可能的修复方法? 服务器有32 GB的RAM,2xSSD驱动器和软件RAID 更新根据Zabbix,当MySQL死亡,进程的数量说增加drammaticaly,直到我做了一个硬复位。 那可能是什么? 进程数

带有Samsung 850 Pro SSD的LSI 9207-9i(SAS2308)上的ZFS cksum错误

我正在testing连接8x Samsung 850 Pro 256GB固态硬盘的LSI 9207-8i控制器。 SSD正在运行最新的固件EXM02B6Q,控制器正在运行P17,并展示了与P19相同的问题。 服务器RAM是ECC,并已在镜像模式下进行testing。 我已经使用ZFS-On-Linux和FreeBSD进行了testing,并在两个操作系统上都尝试了LSI的驱动程序。 磁盘的行为如预期,但在繁重的IO中,它们似乎在写坏块。 在磁盘上运行擦洗时,将显示校验和错误。 为了模拟重IO,我正在使用primarycache = metadata和secondarycache = none的16klogging。 我生成一个4GB的随机文件,并在4个线程中将其添加到另一个文件。 循环这几次就足以让擦洗显示校验和错误。 但是要确认这是否是控制器,SSD或电缆的问题。 我怀疑SSD,但将在下一个机会与9211-8itesting。 有没有人遇到类似的问题,或没有人有什么build议下一步做什么 – 除了更换控制器/固态硬盘? 更新:使用板载SATA控制器,在完全不同的服务器上testing另一台带有EXM01B6Q固件的三星850 Pro 256GB。 校验和也会出现同样的问题。

SSD + LUKS性能比较?

我们的笔记本电脑和便携式硬盘必须经过LUKSencryption。 对于我们来说,LUKS似乎并没有在正常的笔记本电脑硬盘(7200RPM)上造成太多的性能损失。 随着固态硬盘的疯狂数据速率,这仍然是真的吗? 我search了一下,但是我没有看到任何实际的LUKS与非LUKS之间的比较。

什么是最适合Linux的固态文件系统(SSDFS)?

EXT4不是固态文件系统。 它不会充分利用硬件,它会把驱动器储存起来。 那么Linux最好的固态文件系统是什么? 我期待ButterFS(btrfs),但它不适合生产系统。 我也有兴趣知道为什么你喜欢一个特定的ssdfs。

戴尔2950 – 我可以混合SSD与主轴硬盘驱动器?

我有一个内置Perc 5 / i控制器的戴尔2950。 我不想引发关于驱动器types的争论,哪些是“更好”等等。 我想放入2x Cheetah 15.5k SAS驱动器,并将它们镜像到操作系统。 我也想放入2个固态硬盘(确切的模型仍在争论中),并将这些数据镜像。 Perc 5 / i是否可以像这样pipe理多个RAID卷,还是所有的驱动器都必须分配给同一个单独的虚拟磁盘/ RAID卷,然后再将其分割为逻辑卷? 如果可以的话,是否可以在Perc 5 / i上设置? 如果我需要一个不同的RAID卡(我不想启动一个购物线程),哪个Dell RAID卡支持这个要求? 另外,Perc 5 / i的吞吐量是否会限制SSD的吞吐量? 非常感谢。

SSD作为Linux交换大型虚拟内存应用程序?

这个问题在这个问题上有所涉及,但在64位Linux上运行,我有一套数据cachingJVM以及想要一个大的网页caching。 今天的每个高速caching被configuration为总体适合的系统内存(24GB),并坚持LRU磁盘。 我很好奇,但是性能,如果我们**分配caching进程,并build立一个高优先级的Linux交换的SSD。 我想知道Linux内核是否比我们简单的LRU过程更智能/更快? 我关心的是过度分配JVM堆,并且通过内核交换堆页面,因此GC必须定期遍历所述页面。

ZFS:将caching添加到池的最佳实践

听起来像愚蠢的问题,但在SF没有现成的答案 caching池可以有不同的名称比zpool? 例如:假设有一个服务于NFS和iSCSI的zpool“tank” 可以添加一个新的caching池为“xyz1”为它服务的“坦克”? 还是有一个每池caching的概念?