是否增加堆的驱动器到RAID 0提高性能? 我知道在条纹RAID中两个驱动器通常会比单个驱动器更快,但是我会注意到在条纹RAID和8个驱动器之间的性能差异? 在你没有得到任何好处之前,在RAID中驱动器的数量是否有一个普遍的限制? 这里也提到了类似的问题 将更多驱动器添加到RAID 10arrays是否可以提高性能? 但我真的问是否增加许多驱动器到一个RAID 0有改善而不是刚刚添加说2或4.性能不断增加?
iSCSI目标 具有16 GB RAM和16核CPU的Ubuntu 14.04 (Trusty Tahr)作为LVM支持的iSCSI目标,使用三个三星SSD磁盘,每个SSD都可以使用具有板载高速caching的LSI 6 Gbit / s控制器执行65k IOPS。 目标SSD盘上的基准: fio –filename=/dev/sdd –direct=1 –sync=1 –rw=write –bs=4k –numjobs=10 –iodepth=1 –runtime=60 –time_based –group_reporting –name=ssd-max iops=65514 其中sdd使用三个三星850 EVO固态硬盘在硬件RAID 0中进行configuration。 引发剂 我在Ubuntu 14.04客户端上导出了一个500G的LUN,内存为32GB RAM和8个核心CPU。 对导出的LUN进行基准testing fio –filename=/dev/sdg –direct=1 –sync=1 –rw=write –bs=4k –numjobs=10 –iodepth=1 –runtime=60 –time_based –group_reporting –name=client-max iops=2400 在做DAS和networking时,性能会有明显的下降,我预计至less有10k IOPS。 目标和发起者之间的通信小于1 ms,iperf显示9.2 Gbit / s的networking吞吐量。 据我所知,4k写入会对性能产生影响,因为在写入磁盘之前,每个数据都必须经过启动器和目标的networking堆栈,但这是从65k到2k的不可接受的下降。 […]
有谁知道任何比较,显示如何比较固态硬盘在SQL环境中的性能? 我试图了解通过迁移到SSD可以获得哪些性能优势。
有没有人在固态硬盘上运行SQL Server? 你有没有find任何具体的优化技巧? 我特别感兴趣的是如何降低SQL Server执行小型随机写入操作的频率,因为它们是SSD性能的克星,特别是MLC SSD驱动器。 当然,有一些明显的优化可以做到:读数量大的数据应该由SSD提供,写入重量的数据应该留给传统的旋转磁盘。 这当然包括交易日志! 给定足够的预算,当然,人们会希望使用像X25-E或Vertex Ex系列或各种企业级产品的SLC SSD磁盘。 但是我也对那些可能有益于MLC SSD设置的提示感兴趣。 我认为这是一个有趣的领域。 我的一个客户的客户有一个小的预算和一个非常大的数据集,他们正在面对一个完整的重写近百个查询,以保持体面的performance水平。 然而,我有一个偷偷摸摸的猜测,不到500美元的内存和固态硬盘空间可能会使他们获得比成千上万(可能是几万美元)的开发者时间更大的性能收益。
我正在考虑在SSD驱动器的系统上设置一个鱿鱼(或可能清漆)caching。 显而易见的好处是这些系统有很高的读取速度,我期望我的命中率相当高。 假设我可以将7个SSD放入RAIDconfiguration中。 (有些情况会让我收拾得更多) 实施问题: 我应该使用RAID0吗? (我希望驱动器最终失败,所以这看起来很危险。) 我应该使用RAID10吗? (这减less了我的磁盘空间,这是昂贵的。) 我应该使用RAID5吗? (SSD已知具有“不良”的写入性能和写入限制,并且所有额外的奇偶校验写入可能会显着减慢这一点)。 我应该把每个磁盘当作自己的squid数据存储吗? (鱿鱼如何处理多个数据存储?以及如果/当一个失败时会发生什么?) 我应该忽略数据存储,只是让SSD进入大的SWAP分区,让linux虚拟机做这件事情? (似乎马虎) 任何人在生产环境中使用固态硬盘的build议将不胜感激。 (特别是如果你使用HTTPcaching)
我的公司生产一个embedded式的Debian Linux设备,可以从内置SSD驱动器上的ext3分区引导。 由于该设备是一个embedded式“黑匣子”,因此通常通过外接开关切断设备的电源,这种方式通常会被粗暴地closures。 这通常是可以的,因为ext3的日志logging保持有序,所以除了偶尔的日志文件部分丢失以外,事情一直保持顺畅。 然而,最近我们看到了许多单位,经过一些硬核循环之后,ext3分区开始出现结构性问题 – 特别是我们在ext3分区上运行e2fsck,并发现了一些类似的问题显示在本课题底部的输出列表中。 运行e2fsck直到它停止报告错误(或重新格式化分区)将清除问题。 我的问题是…在一个ext3 / SSD系统出现突然/意外关机的情况下,看到这样的问题有什么影响? 我的感觉是,这可能是我们系统中的软件或硬件问题的标志,因为我的理解是(除了一个bug或硬件问题)ext3的日志loggingfunction应该能够防止这些文件系统完整性错误。 (注意:我知道用户数据没有被logging,所以可能会发生用户文件的删除/丢失/截断;我在这里具体讨论文件系统 – 元数据错误,如下所示) 另一方面,我的同事说,这是已知的/预期的行为,因为SSD控制器有时会重新sorting写入命令,并可能导致ext3日志混淆。 特别是,他相信,即使给出了正常运行的硬件和无缺陷的软件,ext3日志也只会使得文件系统损坏的可能性降低,而不是不可能,所以我们不应该感到惊讶。 我们哪一个是对的? Embedded-PC-failsafe:~# ls Embedded-PC-failsafe:~# umount /mnt/unionfs Embedded-PC-failsafe:~# e2fsck /dev/sda3 e2fsck 1.41.3 (12-Oct-2008) embeddedrootwrite contains a file system with errors, check forced. Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Invalid inode number for '.' […]
我的公司正在试图找出要购买哪种types的SAN。 这是特别针对数据库服务器正在成为IO限制(现在的存储是DAS,但我们正在达到单个服务器的限制,我们也想添加集群)。 我们需要一个能够产生大约3000 IOPS的解决scheme(我们目前峰值在1000 IOPS左右)。 我们的大部分数据库操作都是小读/写。 根据与惠普工程师和其他在线人员的讨论,具有RAID 10configuration的24个SAS HD的HP P2000的售价仅为20 000美元。 添加控制器和其他项目来构buildSAN使我们能够绕过我们的最高预算30,000美元。 但在线上,我看到许多SAS SSD提供了80,000 IOPS +的速度。 这是现实的期望? 如果是这样,那么获得一个P2000或类似的入门级SAN,并在那里扔几个SSD是否现实? 我们的数据库很小,总共只有几个TB。 如果我们这样做了,我们将有剩余的钱购买第二个用于镜像/故障转移的SAN,这看起来很谨慎。
将一个“传统的”安全删除工具覆盖磁性硬盘上的物理扇区在SSD上工作,还是将SSD简单地“重新映射”该扇区,以避免昂贵的删除操作,并使数据在未确定的时间内保持原样?
我有一个Sun M4000连接到EMC CX4-120arrays与写入重型数据库。 写入峰值在1200 IO / s和12MB / s左右。 根据EMC的说法,我正在使EMCarrays上的写caching饱和。 我认为最简单的解决scheme是将重做日志移到基于DRAM的SSD上。 这将使EMCarrays上的负载减less一半,应用程序不会看到日志缓冲区等待。 是的,DBWR可能会成为一个瓶颈,但应用程序不会等待它(就像他们做重做提交一样!) 我目前正在循环大约4个4GB的重做日志,所以即使是20GB左右的SSD也会有很大的不同。 由于这是短期存储并且不断被覆盖,基于闪存的SSD可能不是一个好主意。 M4000没有任何额外的驱动器,所以一个PCI-E卡将是完美的,我可以去外部或移动启动卷到EMC和释放本地驱动器。 Sun出售Flash Accelerator F20 PCIe卡,但似乎是一些SATA磁盘caching,而不是DRAM SSD解决scheme。 细节是粗略的,它没有列出M4000支持,我厌倦了打击孙的电话树寻找人的帮助。 🙁 其他人是否同意DRAM SSD是一条路? 任何硬件build议? 更新除了在下面的评论中的信息,我尝试了“commit_write”的各种设置,并没有什么差异。
我将把SSD驱动器添加到我的ZFS存储器中作为caching。 任何人有这方面的经验? 如果caching设备死了会怎么样,这些数据会受到影响?