我将格式化2个120GB Intel 320 SSD,用于高stream量的Drupal服务器。 该服务器有Xeon E1270 CPU和32GB RAM。 我正在使用Debian Squeeze 64位。 这是我的问题: 什么文件系统格式适合在这种情况下最好的:ext3,ext4,xfs或其他? 我倾向于不使用RAID 1.格式化一个磁盘专门用于MySQL和其他文件系统的其余部分。 我认为这样可以最大限度地减less磁盘I / O延迟,并减less写入周期,从而提高磁盘的整体寿命。 你如何评估这种方法?
我已经买了一个新的服务器,我使用的主板华硕P9X79 WS X79 S – 2011的ATX 。 它将用于虚拟化,最好是使用VMware vSphere Hypervisor™(ESXi),如果我可以在我的主板上使用VMWare(它不会检测到它)获得RAID。 该主板有英特尔®X79芯片组,RAID控制器意味着供应商ID 8086(英特尔)和型号ID 2826 。 当我从我的闪存驱动器启动ESXi 5.0.0安装介质时,我无法在我创build的RAID5集中看到驱动器。 问题: 有没有我可以使用的RAID控制器的VIB文件? 我在http://www.intel.com/support/motherboards/server/sb/CS-033313.htm上find了一篇有关使某些英特尔控制器可以使用RAID的文章,其中列出了9个与之兼容的集成RAID模块。 但是,没有提到X79芯片组。
几年以来,我们使用定制的Linux 2.6.31在旧的Gentoo盒子上运行软件RAID1。 RAID由2个硬盘组成,每个硬盘4个分区。 在过去的几年里,它发生了大约3-4倍的磁盘抛出arrays。 但是,每次badblocks没有报告错误,我能够像这样重新激活磁盘 mdadm /dev/md3 -r /dev/sda3 mdadm /dev/md3 -a /dev/sda3 这一次情况不同: mdadm在过去的24小时内报告了2个错误的分区,都在同一个磁盘sda 。 我再次运行badblocks没有成功:报告0坏块。 如果我尝试将故障磁盘添加回arrays,则每次都会发生相同的错误: Mar 25 23:09:10 xen0 kernel: ata1.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x0 Mar 25 23:09:10 xen0 kernel: ata1.00: irq_stat 0x40000001 Mar 25 23:09:10 xen0 kernel: ata1.00: cmd ea/00:00:00:00:00/00:00:00:00:00/a0 tag 0 Mar 25 23:09:10 xen0 […]
我每天运行一个拥有400,000多个访问者的大型网站,目前正在build立一个新的服务器环境(一个Web和一个数据库服务器)。 我很想听听Jeff和Joel如何为高stream量设置Web和Db服务器configuration。 例如: 我的数据库服务器上也有一个RAID 10 – 我应该设置自动碎片整理吗? 你的应用程序池高级设置是怎样的 – 什么队列长度? 你改变了MaxConcurrentRequestsPerCPU设置吗? 你有一个额外的驱动器专用于分页? 任何信息,你可以给予非常感谢。
今天,我正在用四个磁盘解决突袭失败的问题。 一个硬盘出现故障,另一个硬盘重新启动后不能重新添加。 mdadm -D报告它是干净的,只有四个磁盘中有两个运行。 当我尝试读取使用dd = / dev / md1 = / dev / null的md数组时,读取在1.5MB后出现错误,dmesg中的“设备md1,逻辑块XXX上的缓冲区I / O错误”。 假设我使用了默认的512KB块,那么就会发生不可避免的事情:根据raid10-FAR http://goo.gl/5Xl7k中的块分布,位于两个缺失磁盘之一上的每个块都不可用。 它是否有一定的目的,数组可以组装得如此糟糕,还是它在md-raid10-far实现中的缺陷? Raid10-near可以在某些情况下以这种方式进行组装,所以也许开发人员忘记修改代码来决定是否可以组装? 我使用Ubuntu Server 12.04,内核3.2.0-26-generic,mdadm v3.2.3
以下链接收集在这个线程中,我开始检查blockdev,并发现以下输出,指示分区c0d9p1和基础设备(c0d9)的不同大小: [root@machine ~]# blockdev –report /dev/cciss/c0d9 RO RA SSZ BSZ StartSec Size Device rw 256 512 4096 0 3906963632 /dev/cciss/c0d9 [root@machine ~]# blockdev –report /dev/cciss/c0d9p1 RO RA SSZ BSZ StartSec Size Device rw 256 512 2048 1 3906959039 /dev/cciss/c0d9p1 我们有很多小文件,所以是块大小比正常小。 该设备是惠普智能arraysP410 RAID控制器上的逻辑驱动程序,简单的磁盘没有任何RAID – 精确的一个磁盘上的RAID 0。 (请注意,上面的configuration是一个function不是一个错误)。 因此,我有以下问题。 上面的块大小差异是否会影响磁盘性能? 我可以使用hpacucli控制块大小吗?
所以,我有一台配备PERC 6/i Integrated的戴尔R710以及RAID10 6个450Gb Seagate 15k SAS磁盘,我有30个Xen vps。 现在我需要用相同的硬件部署第二台服务器来完成相同的任务,我想知道使用RAID5而不是RAID10是个好主意,因为我们在第一台服务器上有很多“空闲”的内存,而没有太多的“可用空间”。 如何在第一台服务器上发现磁盘性能,并找出可以将其移至RAID5而不会降低整个系统的性能?
我已经通过了一台DL380 G7,看起来工作正常(所有的常规检查都回来了,Linux可以启动,LV创build可以,磁盘访问也可以) – 除了左边的四个托架连接到控制器的端口1不要报告正确的ID。 在1-3和5-7的托架上有六个驱动器。 第三个盒子装有提升卡,但没有任何附件。 主板上的控制器是P410。 两个托架都有三个146 GB的SAS卡(左三个是15K,右三个是10K – configuration的一个怪癖)。 当我启动服务器时,它已经configuration了RAID 5,显示为“OK”,在Parted Magic LiveCD中显示为可用的未格式化空间。 BIOS,控制器实用程序和随附的CLI实用程序都将枚举端口1i上的5,6,7和8的左侧框(右侧框按预期在端口2i上列举为5,6,7和8)。 其中一个症状是,前面板的UID和活动LED在左侧的托架上没有亮起 – 交换主板上的电缆导致左侧托架的LED正常工作,而右侧托架没有工作,所以在这里出了点问题。 使用CLI闪烁指示灯没有任何区别,只有通过第二个端口的驱动器指示灯闪烁。 所有驱动器都是完全可见的,状态报告如预期。 可能是在borked之后的接口卡,还是它是一个主板问题? 我从来没有遇到过这个,我也没有find很多类似的问题在网上讨论。
我正在运行一个带有3个RAID5arrays的服务器,通过一个配有HP-SAS扩展器的ARECA 1880i。 在经历了最近的性能大幅下降之后,我想单独对驱动器进行基准testing而不会破坏arrays。 arrays由6个2TB驱动器组成。 我将如何继续实现这一目标? 服务器目前是基于Windows的(虽然我质疑进一步的系统信息的相关性)。
我有一个新的mdadm RAID10设备是健康的,由4个7200转/分钟的SATA 3驱动器构build而成: # cat /proc/mdstat Personalities : [raid10] [raid1] md2 : active raid10 sdc3[5] sda3[4] sdb3[1] sdd3[3] 3885267968 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU] (还有两个mdadm设备,但是md2是相关的) 在md2之上是一个ext4文件系统,用以下方式创build: mkfs.ext4 -m0 -L bups -b 4096 -E stride=8,stripe-width=32 /dev/md2 在通过NFS使用它作为备份目标时,性能非常糟糕。 在单个客户端写作时,我看到了这样的数字,大约有30%到50%的I / O等待在top : Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn sda 197.00 0.00 1.07 0 […]