Articles of ssd

SSD是否可以通知主机操作系统,其磨损级别越来越高?

我读了很多有关SSD的信息,我对他们感兴趣的服务器使用。 我最关心的是他们的可靠性。 许多写道缩短了他们的寿命。 如果我可以定期在SSD上运行某种诊断程序,或者SSD可以自动警告操作系统其可靠性已达到临界水平,那么我可以缓解这个问题。 把它想象成SMART或像SpinRite这样的SSD软件。 我现在提到的东西有吗? 哪种/品牌的SSD做到这一点? 我不介意一会儿换一个新的SSD的疲劳。 我非常确定SSD寿命是以年计算的,而不是在几个月内计算的? 对我来说,改进的性能将为SSD反复付费。 我打算使用大量的RAM。

我的ZFS ARC和L2ARCcaching中有什么?

我在家里有一个简单的ZFS设置,4个磁盘镜像,8GB RAM和120GB Intel L225C的Intel X25-M SSD。 我运行zpool add poolname cache cXtXdX然后生成负载,并通过运行zpool iostat -v mypool热切跟踪升温过程。 几个小时后,L2ARC已经满了,但究竟是什么被caching了? 我可以偷看,看看我的ARC / L2ARC中有什么? 我知道某些块会映射到多个文件系统(由于快照,克隆或重复数据删除),但我仍然想要对这些统计信息进行采样: 被caching的块的types:元数据。 iSCSI,数据。 等等 年龄:在L2ARC中每块有多长时间 哪些文件:caching一些内容的目录 文件系统崩溃:GBcaching每个文件系统 非易失性块的位置(其中drive / vdev) 我会想象zdb和/或dtrace会成为日常工具,但不知道从哪里开始。

S2D的设置为SQL FCI提供高达2M的IOPS

我们即将部署用于超高速存储的共享存储研究来实现Microsoft SQL Server故障转移群集(FCI)。 到目前为止,项目开始,我们将以500k IOPS开始,为8k块70r / 30w模式。 另外,由于SQL服务器日益增长的预期,我们希望能够在一年左右的时间内提高最高2M IOPS(相同模式)的性能。 为了项目的目的,我们将部署Microsoft Storage Spaces Direct(S2D)的4节点集群。 至于硬件方面,我们已经有2个戴尔机架式服务器R730xd,带有2个E5-2697和512GB内存,我们准备再买2个。 至于存储方面,微软build议使用NVMe或NVMe + SSD来获得最高性能( 来源 )。 因此,经过一番研究,三星固态硬盘很好用。 https://www.starwindsoftware.com/blog/benchmarking-samsung-nvme-ssd-960-evo-m-2 http://www.storagereview.com/samsung_960_pro_m2_nvme_ssd_review 我们考虑的设置如下:每个S2D主机1x三星960 EVO NVMe + 4x三星PM863 SSD。 使用三星960 EVO NVMe和三星PM863的S2D实现可以向SQL FCI提供500k吗? 编辑: a)那天你不是问过类似的吗? – 我做到了 自从第一枪脱离主题以来,又有新的问题出炉了。 主体和身体被改变。 上一个问题将被删除。 b)它们是消费驱动器 – 问题是要findS2D的设置,可以在启动时容纳所需的500k IOPS。 你会推荐什么样的设置? c)你打算如何连接所有这些,我不知道有5个M.2插槽的服务器 – 我们需要知道这一点 – 每个节点只能使用1个M.2的驱动器。 我已更正共享存储的设置:每个S2D主机1个三星960 EVO NVMe + 4x三星PM863 SATA […]

将SSD上的XFS日志显着提高性能?

我有一个在RAID5中运行XFS的五个磁盘arrays,我想提高它的性能。 我已经看到一些提示,把日志放到一个单独的设备上可以帮助,把日志上的SSD帮助dramtically? 从理论上讲,它应该,但是我一直没能find任何案例研究,其中有人已经真正做到了这一点,购买固态硬盘,然后让它不能很好地工作,最好不方便…

ext4文件系统损坏 – 可能是硬件错误?

打开计算机后大约半小时后,我在dmesg收到这些错误: [ 1355.677957] EXT4-fs error (device sda2): htree_dirblock_to_tree: inode #1318420: (comm updatedb.mlocat) bad entry in directory: directory entry across blocks – block=5251700offset=0(0), inode=1802725748, rec_len=179136, name_len=32 [ 1355.677973] Aborting journal on device sda2-8. [ 1355.678101] EXT4-fs (sda2): Remounting filesystem read-only [ 1355.690144] EXT4-fs error (device sda2): htree_dirblock_to_tree: inode #1318416: (comm updatedb.mlocat) bad entry in directory: directory […]

磁带与SSD关于长期存储可靠性的备份

我的问题是关于固态硬盘的问题,而不是普通的硬盘。 我想制定一个祖父 – 父子的备份scheme,SSD用于祖父和父亲的部分,每年的祖父将被锁在一个安全的异地5到5年。 我能期待在这段时间之后,数据会被保存下来吗?

我可以使用dmraid而不是md(mdadm)来制作软件RAID-1和RAID-1 + 0卷吗?

关于SSD和TRIM的相关问题(请参阅: 可能在Linux中使用ext4 + LVM +软件RAID上的SSD TRIM(丢弃)工作? ),事实certificate,dmraid现在(或短期)可以在RAID-1上支持TRIM。 通常,我们使用md(通过mdadm)创buildRAID-1卷,然后使用LVM创build卷组,然后使用我们select的文件系统(最近的ext4)进行格式化。 我们已经这么做了很多年了,Google和ServerFaultsearch似乎证实这是使用卷pipe理进行软件RAID的最常见方式。 谷歌search似乎表明,dmraid是用于所谓的“fakeRAID”configuration,在控制器中有RAID级别的硬件'帮助',这是我们没有的(也不想用 – 我们想要一个完整的软件解决scheme)。 既然我们想在我们的SSD上使用TRIM,而且由于md似乎还不支持TRIM,我想知道是否可以使用dmraid而不是md创buildRAID-1(和RAID-1 +0)的软件卷,没有硬件支持(即,只是插入一个愚蠢的SATA / SAS总线)?

突然大规模文件系统损坏的原因? (“根目录不是目录”)

我有一台运行Maverick的笔记本电脑(非常愉快,直到昨天),用爱国者Torx SSD; 整个分区的LUKSencryption; 一个lvm的物理量在上面; 然后在其上的ext4逻辑卷的home和root。 当我试图启动它昨天,它抱怨说,它无法挂载根文件系统。 运行fsck,基本上每个inode似乎都是错的。 家庭和根文件系统都显示类似的问题。 检查备份超级块没有帮助。 e2fsck 1.41.12 (17-May-2010) lithe_root was not cleanly unmounted, check forced. Resize inode not valid. Recreate? no Pass 1: Checking inodes, blocks, and sizes Root inode is not a directory. Clear? no Root inode has dtime set (probably due to old mke2fs). Fix? no Inode 2 is […]

在服务器上使用SSHD(固态混合驱动器)是否明智?

我有一堆非常繁重的I / O服务器,当前使用的是SATA3 / SAS驱动器,但是在SATA驱动器上遇到I / O等待,我刚刚被告知SSHD的存在,这对于1TB作为我们目前使用的1TB SATA驱动器。 但是,之前(直到希捷3月份才发布了他们的第一个3.5“SSHD),他们似乎专门用于上网本/笔记本,这让我怀疑他们并不是专门为我那些沉重的I / O服务器。 那么,在一个沉重的I / O环境(比如多个非常大的高速文件传输)中,SSHD是否会给我的SATA3驱动器带来性能上的提升呢?还是最好用I / O等待?

使用SSD作为磁盘caching

有没有Linux的软件使用SSD作为磁盘caching? 我相信Sun在ZFS上做了这样的事情,虽然不太清楚。 快速search没有提供任何合适的。 目标是将经常请求的文件放在SSD上。 由于固态硬盘比硬盘具有更多的容量,而且硬盘性能更好,性能更好,所以这应该可以提高性能。