我在软件raid5上有一个ext4文件系统。 这个文件系统在我开始用尽空间的时候已经运行了好几年了。 我在6x2T硬盘上有9T的容量。 我开始通过执行mdadm失败,删除,添加,重build,重复过程,直到我有一个更大的arrays升级到3T驱动器。 然后,我长大的容器,然后当我卸载,并试图resize2fs我被告知文件系统是脏的,需要e2fsck。 没有想到我只是做了e2fsck -y / dev / mapper / candybox,它开始喷出各种inode被删除的types的消息(不能准确记得)我杀了e2fsck,并试图重新安装文件系统备份我关心的数据。 当试图挂载在这一点上,我得到: # mount /dev/mapper/candybox /candybox mount: wrong fs type, bad option, bad superblock on /dev/mapper/candybox, missing codepage or helper program, or other error In some cases useful info is found in syslog – try dmesg | tail or so 回顾一下我的旧日志,我注意到文件系统在每次启动机器时都出现这个错误: kernel: [79137.275531] […]
在较早的操作系统(CentOS 5.5)上使用现代内核(当前为2.6.37),以便我们可以在我们的SSD(Crucial C300)上获得TRIM(丢弃)。 最近的hdparm(9.37)认为C300支持TRIM: ./hdparm -I /dev/sdc | grep TRIM * Data Set Management TRIM supported (limit unknown) * Deterministic read data after TRIM 但是,当我尝试使用discard选项来挂载/ dev / sdc时,内核似乎并不一致: EXT4-fs warning (device sdc): ext4_issue_discard:2619: discard not supported, disabling 我们正在尝试其他的Linux风格,但是不pipe怎样,知道发生了什么都是很好的。 这是CentOS 5.5的一些其他古老组件的一种performance,它误导了内核? 也许是hdparm使用与内核不同的机制来确定是否支持TRIM?
背景: 我已经inheritance了大容量caching域名服务器环境(Redhat Enterprise Linux 5.8,IBM System x3550),其环形缓冲区设置不一致:eth0为1020,eth1为255。 eth0连接到本地数据中心的交换机1,eth1连接到交换机2。 集群中的每台服务器在eth0或eth1是否为活动接口之间进行切换,并且每个集群位于不同的区域。 环形缓冲区显然需要保持一致。 这里是事情变得更加棘手的地方:当研究为什么一些名称服务器频繁地logging“错误发送响应:未设置”错误, ISC知识库build议与出站拥塞有关时,我发现了上述问题 。 具有较高环形缓冲区设置(1020)的服务器会在ifconfig上丢弃更less的数据包(正如人们所期望的那样),但往往会以高频率logging上述错误,在我的最高负载组中,每天约20千次。 我们称之为“第一组”。 具有较低环形缓冲区(255)设置的服务器每天的入站数据包数量明显减less(同样是预期的),但是在同一个负载组中,BIND错误的实例通常为0-150。 这里也不是一个很大的谜团。 cachingDNS是recursion服务:如果某些东西没有被caching,服务器必须代表这个问题进行多个查询,直到它最终能够返回一个答案。 这是(一) – >(多出)查询关系。 修复RX环形缓冲区应该使这个数字在板子上等于一个新的值,从那里调整proc(wmem_max / wmem_default)中的内核出站networking队列可能是个好主意。 我喜欢能够评估configuration变化对性能问题的影响,因此我在写作之前编写了一份报告来收集一些数据,然后才开始进行生产更改。 以下是组1中前两台服务器的输出示例: group1-01 RX: 7166.27/sec av. TX: 7432.57/sec av. RXDROP: 7.43/sec av. unset_err: 27633 group1-02 RX: 7137.37/sec av. TX: 7398.50/sec av. RXDROP: 9.94/sec av. unset_err: 107 这些是公式。 请注意,这是一个本地脚本,不需要依赖每个服务器必须维护的shell脚本。 RXPACK=$(ssh $server "sar […]
目前我们遇到一个大问题:我们需要为我们的客户镜像一个文件系统。 这通常不是一个真正的问题,但这里是: 在这个文件系统上有一个文件夹,有数百万个硬链接(是的!百万!)。 rsync需要超过4天才能build立文件列表。 我们使用以下rsync选项: rsync -Havz –progress serverA:/data/cms /data/ 有没有人有一个想法如何加快这个rsync,或使用替代? 我们不能使用dd因为目标磁盘比源小。 更新:由于原始文件系统是ext3我们将尝试dump和restore 。 我会保持你up2date
对于在linux下很less使用cpu的高负载平均值,通常的解释是太多的IO(或更适当的不中断的睡眠 )。 我有一个运行在2核虚拟机上的服务,它performance出适度的CPU使用率(〜55-70%空闲),但高于2个负载平均值,同时经历IO接近零,适度的上下文切换以及不交换。 用ps轮询我从来没有在进程状态列中看到D 这个服务是ruby 1.9在独angular兽下运行的。 它连接到两个上游postgres数据库,提供非常快速的avg语句执行(〜0.5ms)。 该服务正在logging经过的请求持续时间,大约是在我们的性能testingnetworking中承受较高压力负载的情况下的两倍。 唯一一个看起来不重要的监控信号是平均负载(当然也包括平均响应时间),其他所有内容(cpu,内存,io,networking,cswitch,intr)都是标称和匹配的投影。 系统是Ubuntu 10.04.4 LTS“Lucid”。 uname是Linux dirsvc0 2.6.32-32-server #62-Ubuntu SMP Wed Apr 20 22:07:43 UTC 2011 x86_64 GNU/Linux 。 pipe理程序是VMWare ESX 5.1。 更新:更多信息按照@ewwhite的要求。 存储是映射到连接到NetApp的虚拟机主机上的NFS安装的虚拟磁盘设备。 我会指出,所有迹象表明,没有重大的磁盘IO发生。 该服务读取和写入networking套接字(〜200KB / s),并进行普通访问和错误logging(以约20KB / s的速率)。 vm主机有一对千兆位端口连接到两个机架顶部交换机,每个机架交换机都将四个千兆位端口连接到一个核心路由器,全部为铜缆。 每个vm主机都有24个(4×6)物理内核和150GB的内存,通常会运行大约30个同样大小的vm客户端,运行各种不同的服务。 在生产中,这些主机不会在内存上过度提交,只会在CPU上过度提交。 我会欢迎想法来解释高负荷。 以下是今天中午两小时窗口提取的sar数据: sar -q#加载平均值 runq-sz plist-sz ldavg-1 ldavg-5 ldavg-15 12:05:01 PM 1 173 1.15 2.41 […]
为了确定尺寸,我需要了解应用程序对I / O子系统的要求。 我很想做我所谓的I / O嗅探,并从块层获取事件列表,如下所示: initiator XYZ requests block 4711 from device 0815 initiator BLA writes block 1234 to device 9876 我被告知blktrace是我正在寻找,但我不能从这个工具得到这个信息。
在我的机器上,我使用了使用tun0接口的OpenVPN。 我希望sshd只能在这个接口上进行监听。 我知道,我可以指定IP地址来收听 /etc/ssh/sshd_config 与一个 ListenAddress 0.0.0.0 指示。 但是我的IP地址会改变,所以我不能select一个永远有效的IP地址。 我知道,只有当VPN启动时,我才能启动守护进程 – 这不是问题。 我怎样才能让sshd只听一个特定的接口(tun0)?
在使用igb版本4.1.2的R610上,我看到了ioatdma模块加载(并加载了lsmod): ioatdma: Intel(R) QuickData Technology Driver 4.00 ioatdma 0000:00:16.0: irq 80 for MSI/MSI-X ioatdma 0000:00:16.1: irq 81 for MSI/MSI-X ioatdma 0000:00:16.2: irq 82 for MSI/MSI-X ioatdma 0000:00:16.3: irq 83 for MSI/MSI-X ioatdma 0000:00:16.4: irq 84 for MSI/MSI-X ioatdma 0000:00:16.5: irq 85 for MSI/MSI-X ioatdma 0000:00:16.6: irq 86 for MSI/MSI-X ioatdma 0000:00:16.7: irq 87 for MSI/MSI-X […]
我一直在search和收集很多这样的链接,但是其中很多工具没有足够的用例或演示文档来评估它们的潜在价值,而无需安装和试用它们。 我希望这里的人有一些他们的经验,并可以提供有关他们是多么容易安装和使用的反馈。 我的个人使用案例是几个机器池,通常用于协同工作分布式任务。 这些机器不是一个真正的集群(如贝奥武夫),我的主要需求是帮助configuration和pipe理机器。 如果实用程序提供了将工作分解成几部分并分配这些部分的function,那很有意思,但我首先需要使用主要用例。 以下是我发现的免费开源项目列表: PDSH clusterssh PSSH clusterit 扇出 omnitty taktuk 碟 DSH pydsh 我渴望听到你的想法!
有没有人有过用于Linux的Exchange 2007客户端的成功? 我不是在寻找一个IMAP客户端或类似的东西…有很多,但实际上支持Exchange 2007协议的客户端。 我已经尝试打开更改MAPI没有成功,我不确定这是因为我做错了或因为我们的外部主机奇怪的多客户端设置。 有没有人有任何工作经验? 谢谢