在创build实例时,我对EBS和SSD的select感到困惑。 同时select实例参数(步骤2),您将在实例存储(GB)列中看到2个选项:仅EBS或SSD。 我不知道为什么这个选项是因为SSD和EBS是不同的东西,为什么我会select一个而不是其他。 下面的实例存储(GB)的定义与上面的内容是一致的。 (如果将鼠标hover在列名上,则会看到此定义) 实例可用的本地实例存储卷。 实例存储中的数据不是永久性的 – 只在实例的生命周期中持续存在。 为什么在第四步再次我将需要selectSSD还是磁性? 任何澄清将有所帮助。
从以前提出的问题中分离出来 如何从安装的驱动器获得可用空间Redhat 7 更新crypttab要求为fstrim密码 我们有一台HP 3PAR StoreServ 7400,其中有170台虚拟机分布在38台主机上。 以下是我所了解的问题:(另外我也被告知一些信息,我不确定是否是真的,我已经阅读了HP 3PAR StoreServ 7400白皮书,实际上找不到任何支持我的存储系统的东西告诉我,所以在下面如果有人注意到任何事情都不是真的,请告诉我。) 3 PAR分成3个部分, 第1层:SSD用于caching和快速访问常用文件。 第2层和第3层:某种旋转盘,什么以及为什么还有额外的2层im不确定,但我的假设是第2层用于数据是不是最常见的访问,但访问一点,第3层用于其余的存储。 在SSD部分中,我已经在很多文章中读到数据写入到SSD块后删除,然后删除该块没有归零,直到写入新数据,所以当块内的数据被删除时,存储映射的表info被更新,然后当新的数据被写入同一个块时,块首先需要被清零,然后才能被写入。 如果驱动器没有被周期性修剪,SSD内的这个过程可能导致较低的w / r速度。 3PAR LUN是精简configuration,VM是Eager Thickconfiguration的。 据我的存储人员介绍,3PAR内置了一个特殊function,可以根据需要使用SSD存储器,而不必使用其他虚拟机,这是没有意义的。 事实检查: 厚configuration的VM是VMDK文件,创buildVM时指定VM的大小,并创buildVMDK文件。 在我看来,如果VM正在被定期访问,那么整个VMDK文件就会被转移到SDD,而他们告诉我的是,即使VMDK被设置为使用40GB,其中一些可以使用40GB其他VM的? 这听起来更像是一个精简configuration的虚拟机,而不是一个厚厚的。 好的解决问题。 在我们的Windows系统上,我们使用sdelete来查找和清零未使用的块。 在我们的Linux Fedora系统上,我一直试图弄清楚如何让fstrim工作。 我尝试了dd = write-big-file delete-big-file命令,并且通过屋顶发送了磁盘I / O,这被注意到了,我被告知不要再这样做。 做一个小小的研究,看起来像sdelete几乎和dd = write-big-file delete-big-file一样,那么为什么磁盘I / O不能通过windows系统来实现呢? 所以我认为我已经削减到两个解决scheme。 我也不知道该怎么做。 某种情况下,如果不将虚拟机移动到不同的存储arrays,则可以在SAN的整个SSD部分上运行类似fstrim的function。 注意:如果我明白了我读过的所有东西,fstrim会查看每个数据块,看看数据是否存在,如果不需要的话,将不需要的数据块清零,当sdelete写入一个巨大的文件,然后删除它。 这就是为什么我要在3PAR的整个SSD部分寻找fstrim选项。 长,但我得到的错误与fstrim是: [root @ rhtest〜]#fstrim -v / […]
我想build立一个托pipe2TB +数据的服务器。 当然SSD在数据驱动方面已经不在图中了。 我的问题是:使用SSD作为启动驱动器是否有任何好处? 我打算把16G的内存。 我认为大多数时候应该将服务加载到内存中,而服务器很less需要重新启动。 在这种情况下,获得SSD还是仅使用两个SATA驱动器获得RAID1是否有意义?
说明: 我们有一个服务器: 型号:HP ProLiant DL160 G6 4 x 240GB SSD(RAID-10) 72GB DDR3内存 2 x L5639 HP P410 RAID控制器(256MB,V6.40,Rom版本:8.40.41.00) SSD硬盘是4个全新的2.5“Intel 530,具有540MB / s的读取速度和490MB / s的写入速度 CentOS 6 文件系统是ext4 但这是raid 10的读取速度的testing结果: hdparm -t /dev/sda /dev/sda: Timing buffered disk reads: 824 MB in 3.00 seconds = 274.50 MB/sec [root@localhost ~]# hdparm -t /dev/mapper/vg_localhost-lv_root /dev/mapper/vg_localhost-lv_root: Timing buffered disk reads: […]
目前我正在阅读SSD评论,我想知道如果将72 GB转换从7200转硬盘转移到SSD,我将受益多less。 有没有人在SSD上实现交换空间? 这是一个好主意吗? 在一个方面说明:我读了ext4有更好的性能,如果该杂志在SSD上。 任何人都有这样的设置? 谢谢! 编辑:在这里,我会回答的问题贴:偶尔,我比较难得的交换。 我知道交换是什么,这是更好的获得更多的RAM。 当服务器开始交换其性能下降(不是一个惊喜)。 这个想法是,如果我没有运行内存饥饿的进程,以提高当时的整体系统性能,使用SSD交换,而不是较慢的旋转媒体。 最后 – 我希望能够更快地login,并在交换过程中检查服务器状态,而不是等待login提示符。 而我所看到的SSD比GB更便宜。 使用SSD与硬盘相比,在交换期间是否会有更好的服务器性能? 在这种情况下,10k或15k rpm的硬盘在哪里? 谢谢大家的快速和迅速的答案!
最近我遇到了一个致命的固件错误,影响了我数据中心部署的几十个Crucial SSD。 许多受影响的机器使用LSI或其他专有SAS控制器,Crucial的可启动ISO无法识别。 没有受影响的机器有Windows许可证。 其他SSD制造商的故事大致相同,包括三星和英特尔。 为了解决这个问题,我被迫停止每台机器,移除受影响的SSD,从热交换盒中取出SSD,将其暂时安装到我的ThinkPad,刷新固件,反转,冲洗,重复。 通过所有受影响的设备,花了好一天的时间。 我正在寻找硬件,软件和/或采购策略来缓解这种痛苦,因为SSD固件错误似乎是不可避免的,我们的SSD占用空间也在不断增加。 我的第一个想法是得到一台带有eSATA和这些电缆之一的笔记本电脑。 至less应该这样做,所以我不必从他们的球童中删除驱动器。 其他人肯定会遇到这个问题。 任何新的解决scheme
为了规避与新型HP ProLiant Gen8服务器一起使用SSD驱动器的兼容性和成本障碍 ,我正在validation平台上的基于PCIe的SSD。 我一直在试用来自Other World Computing的一款名为Accelsior E2的有趣产品。 这是一个基本的devise; 带有Marvell 6Gbps SATA RAID控制器的PCIe卡和连接到该卡的两个SSD“刀片”。 这些可以通过操作系统进行软件RAID(例如ZFS) ,也可以用作硬件RAID0条带或RAID1镜像对。 俏皮。 这实际上只是把一个控制器和磁盘压缩成一个非常小的外形。 问题: 看看那个PCIe连接器。 这是一个PCie x2接口。 物理PCIe插槽/通道大小通常为x1,x4,x8和x16 ,电气连接通常为x1,x4,x8和x16。 没关系。 我以前在服务器中使用过x1卡 。 我开始在启动的系统上testing此卡的性能,发现无论服务器/插槽/ BIOSconfiguration如何,读取/写入速度都受到约410 MB / s的限制。 正在使用的服务器是带有x4和x8 PCIe插槽的HP ProLiant G6,G7和Gen8(Nehalem,Westmere和Sandy Bridge)系统。 查看该卡的BIOS,发现该设备的协商结果为: PCIe 2.0 5.0Gbps x1 – 因此,只使用一个PCIe通道而不是两个,因此只有一半的广告带宽可用。 有没有办法强制PCIe设备以不同的速度运行? 我的研究表明,PCIe x2是一个古怪的通道宽度… PCI Express标准显然不需要兼容x2车道宽度 ,所以我的猜测是我的服务器上的控制器正在回落到x1 …我有任何追索权? 缩写lspci -vvv输出。 请注意LnkSta和LnkCap行之间的LnkSta 。 05:00.0 […]
我目前正在一个raid镜像中构build一个带有2个256GB固态盘的Ubuntu 13.04新服务器来运行一个MariaDB实例。 我们通常将LVM置于MD RAID 1上的dm-cryptencryption之上 ,但之前还没有在此设置中使用过SSD。 我的问题是,因为我们将使用一个新的(3.8)内核,它应该允许fstrim直接应用到raid卷,据我所知。 我现在可以简单地依靠这个与fstrim -v /通过一个cron工作正常工作,就像我会,如果突袭没有到位? 即使LVM位于RAID的顶部,这是否也是如此? 我们打算使用驱动器上的硬件encryption,所以我们在这里不需要dm-crypt。 注:我知道有几个类似的问题,涉及backporting更新的内核版本和实施丢弃与md卷 – 我问具体是否fstrim对md-raid工作,而不进一步修改更新的内核。 更新:只是想跟进和发布,这工作得很好。 现在在cron.daily上有一个工作,它在/和/boot上运行fstrim,并且工作正常。 此外,事实certificate,SSD上的硬件encryption(Samsung 840 Pros)似乎需要TPM支持,这是我们没有的,所以我们使用软件encryption进行了configuration,如链接所示。 通过向/etc/crypttab ( 而不是 /etc/fstab )中的选项添加discard ,并在/etc/lvm/lvm.conf的devices部分添加issue_discards = 1 ,即使通过LVM,encryption和RAID层,fstrim也能正常工作。 有关在LVM和encryptionSSD上configurationtrim / discard的更多信息,请点击这里。
我search了互联网find一个工具/实用程序,可以告诉我执行的SSD(或普通磁盘)的总写入。 输出应该是这样的: SSD Intel 320S :- Total data written until now — 2Tb Total data read until now — 4Tb power on Hours — 1234 Hrs etc. 但是我还没有find。 有谁知道这样的工具? 我知道在Windows上的SSDLife工具做到这一点,但我特别希望在Linux上这样做。 我从smartmontoolsbuild议的smartctl查找了smartctl命令。 他的post非常有帮助。 我将在这里添加更多信息,这是我在挖掘互联网后遇到的。 我发现gsmartcontrol (gui版本的smartctrl )特别有帮助。 有关这些工具类的更多信息,请查看Smartmontools – 社区Ubuntu文档 。 这个链接有smartctl例子。 了解每个SMART属性意味着检查此英特尔SMART属性 。 这些属性是特定于英特尔固态硬盘的,但是提供了一个想法,即SMART属性传达了什么样的信息。 一些特定的参数可能会在不同的SSD之间不同。 LBA是其中之一吗?我不知道。 另一个很好的信息来源是如何确定在Linux下SSD的写入周期数或预期寿命? – 服务器故障 。 在这里,最好的答案是SMART Attribute Id 225表示直到现在为SSD执行的总大小为32MiB的写入I / […]
我有一个英特尔X-25M驱动器在ZFS存储arrays中被标记为“失败”两次,如此处所述。 但是,在卸下驱动器之后,似乎要在其他计算机(Mac,PC,USBshell等)上进行安装,读取和写入, 有没有一个很好的方法来确定驱动器目前的健康状况? 我觉得以前ZFS解决scheme的失败是错误,错误报告和硬件的融合。 不过,似乎这个驱动器可能会有一些生命。