我希望你们中的许多人正在处理高stream量的数据库驱动的网站,而且你的主要可伸缩性问题可能在数据库中。 最近我注意到了一些事情: 大多数大型数据库都需要一组DBA才能进行扩展。 他们经常与硬盘驱动器的局限性作斗争,并最终采用非常昂贵的解决scheme(SAN或大型RAID,经常维护的磁盘碎片整理和重新分区等)。维护此类数据库的实际年度成本在$ 100K到$ 1M之间太陡了:) 最后,我们有几家公司,如英特尔,三星,FusionIO等,刚刚开始销售基于SLC闪存技术的极速而又经济实惠的SSD硬盘。 这些驱动器的随机读取/写入速度比市场上最好的旋转硬盘驱动器快100倍(每秒高达5万个随机写入)。 他们的查找时间几乎为零,因此随机I / O的成本与顺序I / O相同,这对于数据库来说非常棒。 这些固态硬盘的成本大约是每GB 10-20美元,而且相对较小(64GB)。 因此,似乎有机会通过简单地构build足够大的RAID 5arraysSSD驱动器(这将花费数千美元)来避免以传统方式扩展数据库的巨大成本。 然后,我们不关心数据库文件是否被分割,我们可以承受每秒100次的磁盘写入,而不必将数据库分散到100个主轴上。 。 其他人对此感兴趣吗? 我一直在testing一些SSD驱动器,可以分享我的结果。 如果这个网站上的任何人已经用SSD解决了他们的I / O瓶颈,我很乐意听到你的战争故事! PS。 我知道有很多昂贵的解决scheme可以帮助实现可扩展性,例如经过时间考验的基于RAM的SAN。 我想要清楚的是,即使是5万美元对于我的项目来说也太昂贵了。 我必须find一个解决scheme,花费不超过1万美元,并且不需要太多时间来执行。 Dave,NXC和Burly, 感谢您的回复! 我想澄清的是,“便宜”这个词对我来说非常重要。 所以,我必须使用便宜的戴尔服务器($ 4K 2950s只有8个内存银行)。 我已经安装了32GB的内存,所以我无法继续扩展。 此外,添加内存并不能让你免受磁盘写入瓶颈,这是我现在的主要问题。 我曾经关心固态硬盘的寿命,但在阅读了现代耗损均衡algorithm之后,我确信这些硬盘将持续足够长的时间。 我的数据库每天写入300GB,预计在2009年每天超过1TB。企业级SSD旨在处理多年来每天大约10TB的写入。 我不同意Burly的观点,即从SAS迁移到SSD需要花费太多的人力。 我的数据库是一个同步镜像,所以我可以升级镜子的一面,然后观看它几个月,如果它吹,我可以故障转移到第二台服务器,仍然有旧的好SAS硬盘驱动器…
SMART (用于自我监测分析和报告技术)是一项非常棒的技术,可以在发生硬盘故障之前检测硬盘故障。 但SMART是否与SSD相关?
我们非常有兴趣探索在服务器环境中使用SSD驱动器的可能性。 但是,我们需要build立的一件事是预计延长寿命。 根据这篇文章,制造商正在报告“总字节数”(TBW)方面的驱动器耐久性。 例如,从这篇文章中,Crucial C400固态硬盘的额定容量为TBT 72TB。 Linux生态系统下是否存在任何脚本/工具来帮助我们测量TBW? (然后就使用SSD驱动器的可行性做出更有教育的决定)
在服务器环境中, 消费类固态硬盘与快速10-15k旋转硬盘有什么区别 ? 在我们的情况下,我们不能使用企业SSD,因为它们太昂贵了。 以下是关于我们特定用例的一些说明: 虚拟机pipe理程序,最多5-10个虚拟机 没有个人虚拟机将疯狂I / O密集。 内部RAID 10,没有SAN / NAS … 我知道企业SSD: 被评为更长的寿命 并长期执行更为一致 比消费者的固态硬盘…但这是否意味着消费者固态硬盘完全不适合服务器环境,或者他们仍然performance比快速旋转驱动器更好? 由于我们通过RAID /备份保护,所以我更关心性能在整个使用寿命期间(只要寿命预计不会太低)。
我可以使用服务器中安装的单个Fusion-io卡来可靠运行吗?还是需要在软件RAID设置中部署两个卡? Fusion-io在回顾他们的营销材料时并不十分清楚(几乎误导)鉴于这些卡的成本,我很好奇其他工程师是如何在真实世界的场景中部署的。 我计划使用HP品牌的 Fusion-io ioDrive2 1.2TB卡作为在Linux上运行的专有独立数据库解决scheme。 这是一个单一的服务器设置,没有真正的高可用性选项。 有一个10分钟的RPOasynchronous复制,将事务日志镜像到第二个物理服务器。 传统上,我将指定一台高端的HP ProLiant服务器,并为此应用程序提供最高级别的CPU。 我需要去SSD,而且我能以比所需容量更低的价格获得Fusion-io。 我是否需要运行两个ioDrive2卡,并使用软件RAID(md或ZFS)join,还是不必要? 我应该担心Fusion-io的失败吗?我会担心RAID控制器故障或主板故障吗? 系统pipe理员喜欢RAID。 这是否需要一个不同的思维模式,考虑到这种外形的不同接口和卡内损耗均衡/纠错? 这些设备的故障率是多less? 编辑:我刚刚从戴尔读了Fusion-io可靠性白皮书 ,外包似乎是“Fusion-io卡有很多内部冗余……不要担心RAID! 。
为了我的机器的安全,我有几个SATA硬盘,因为我担心驱动器出现某种机械故障并丢失数据。 当价格已经到了一定程度时,我正在考虑在明年更换SSD。 值得使用固态硬盘RAID吗? 看起来使用SSD来消除磁性故障的主要原因,所以你基本上是在为“机会主板RAID控制器故障”而交换“SSD失败的机会”。 我不确定这是否值得。 意见?
SSD驱动器的主要优点是性能更好。 我对他们的可靠性感兴趣。 SSD驱动器比普通硬盘驱动器更可靠吗? 有人说他们一定是因为他们没有活动的部分,但是我担心这是一个可能还没完全成熟的新技术。
此 SSD的平均故障间隔时间( MTBF)列为1,500,000小时。 这是很多小时。 1,500,000小时大概是170年。 既然这个SSD的发明是内战之后,他们怎么知道MTBF是什么? 一些对我有意义的选项: Newegg只是有一个错字 平均无故障时间的定义并不是我认为的那样 他们正在使用某种types的统计推断来估计MTBF是什么 题: SSD / HDD的平均故障间隔时间(MTFB)是多less?
在网上有很多资源讨论在RAIDconfiguration中使用SSD驱动器 – 但是这些资源大都可以追溯到几年之后,SSD生态系统非常快速移动 – 正如我们预计今年晚些时候英特尔的“Optane”产品发布这将改变一切…再次。 通过肯定消费级固态硬盘(如Intel 535)和数据中心级SSD(如Intel DC S3700)之间存在质的差异,我会在序言中提到我的问题。 我主要关心的是RAID情况下的TRIM支持。 据我了解,尽pipe在消费级计算机中引入SSD已有六年多的时间,而NVMe在市场上已有四年,但现代RAID控制器仍不支持向连接的SSD发出TRIM命令 – 英特尔的RAID控制器在RAID-0模式。 我很惊讶TRIM支持不在RAID-1模式中,考虑到驱动器互相镜像的方式,这看起来很简单。 但是我离题了。 我注意到,如果您想要使用磁盘(HDD和SSD)进行容错,则可以将其用于RAIDconfiguration中,但是由于SSD不带TRIM,这意味着它们将遭受写放大,从而导致额外的磨损,反过来会导致SSD过早失效 – 这是一个不幸的讽刺:一个旨在防止驱动器故障的系统可能直接导致它。 所以: 现代(2015-2016年代)固态硬盘需要TRIM支持吗? 1.1。 在SATA,SATA-Express和基于NVMe的SSD之间是否需要TRIM支持有什么不同? 驱动器通常被宣传为具有改进的内置垃圾收集function; 这是否消除了对TRIM的需求? 他们的GC过程如何在RAID环境中工作? 1.1。 例如,请参阅2010年的质量保证(QA),其中描述了非TRIMming( https://superuser.com/questions/188985/how-badly-do-ssds-degrade-without-trim ) – 性能下降来自2015年的文章强烈build议使用TRIM的情况( http://arstechnica.com/gadgets/2015/04/ask-ars-my-ssd-does-garbage-collection-so-i-dont-need-trim右/ )。 对于TRIM的必要性这些强有力的论据,你有什么回应? 早期的许多文章和讨论都是关于SLC和MLC的闪存,而SLC由于其寿命更长,所以更受欢迎 – 但是现在看起来所有的固态硬盘(无论消费者对企业频谱)都是MLC这些 – 这种相关性的区别了吗? 1.1 TLC闪光灯怎么样? 企业级固态硬盘往往具有更高的耐用性/写入限制(通常是在整个驱动器的预期5年使用寿命内,您可以在一天内完全覆盖驱动器的次数) – 如果写入周期限制非常高(例如每天完成100次)这是否意味着他们完全不需要TRIM ,因为这些限制是如此之高,或者相反 – 只能通过使用TRIM才能达到的限制?
除了一种磁盘瓶颈之外,在RAID中混合SSD模型还有其他问题吗? 我的问题是,我需要在RAID10中使用4x Samsung 845DC EVO 960GB升级服务器中的存储。 这些驱动器不再可用,所以我的select是要么使用一些新的可比较SSD或完全replacearrays。