我有一个新的Debian VPS,几乎每次我在ext4文件系统上运行繁重的磁盘写入testing时都会出现故障。 文件系统进入只读模式,并将“ata1:lost interrupt(Status 0x50)”logging到/ var / log / messages。 你build议我接下来做什么? 有一些文件系统或服务器参数可以改变吗? 有什么方法可以更深入地debugging吗? 我应该切换到ext3好吗? 还是应该从Debian切换到Ubuntu或CentOS? 这是迄今为止发生的事情。 我从Hetzner获得了一个新的VQ 12 VPS。 我有一个标准的服务器testing程序在接受它们投入生产之前运行。 我从Hetzner映像安装了64位Debian,将其升级到最新的补丁并开始testing。 当我在ext4分区上运行dd写命令时,就像 dd if=/dev/zero of=/root/test.bin bs=2M count=4k conv=fdatasync 我几乎立即得到了 dd: writing `/root/test.bin': Read-only file system 并find一条线 kernel: [ 457.816093] ata1: lost interrupt (Status 0x50) 在/ var / log / messages。 文件系统可以恢复,也可以在重启时恢复 May 5 19:54:29 ****vq12 […]
在/ var / log / messages中获取以下内容: Sep 17 10:38:53 server1 kernel: end_request: I/O error, dev sde, sector 0 Sep 17 10:38:53 server1 kernel: end_request: I/O error, dev sde, sector 63 Sep 17 10:38:53 server1 kernel: end_request: I/O error, dev sde, sector 208845 另外,任何时候运行lvm工具,在返回(正确)结果之前,显示如下: /dev/sde: read failed after 0 of 4096 at 0: Input/output error /dev/sde1: […]
我的Ubuntu服务器安装被破坏,所以我抓起一个Ubuntu桌面光盘,把我的Ubuntu安装在我的硬盘上,然后连接到它。 但是现在我的IO性能非常糟糕: # time dd if=/dev/zero of=/tmp/foo count=1 1+0 records in 1+0 records out 512 bytes (512 B) copied, 13.3886 s, 0.0 kB/s real 0m13.390s user 0m0.000s sys 0m0.000s # mount /dev/sda4 on / type ext4 (rw,relatime,errors=remount-ro,data=ordered) devtmpfs on /dev type devtmpfs (rw,relatime,size=4076308k,nr_inodes=1019077,mode=755) none on /proc type proc (rw,relatime) sysfs on /sys type sysfs (rw,relatime) […]
我有一台运行Ubuntu 13.04桌面(32位)的IBM x3650 M4服务器(64位)。 我意识到,这是由其他要求驱动的非标准设置。 我看到整个电路板上的慢速文件写入(到HDD,到USB,到networking安装)。 文件写入似乎在1.3Mb / s偷看。 我的RAID设置的预期速度是180Mb / s。 这是我的尝试: 启动Live Ubuntu 11.10 64位。 文件写入如期,180Mb / s。 启动Live Ubuntu的13.04 32位。 文件写入很慢,1.3Mb / s。 启动Live Ubuntu 12.04 LTS 32位。 文件写入很慢,1.3Mb / s。 启动Live Fedora 19 32位。 文件写入也是如预期的,180Mb / s。 在这一点上,Ubuntu 13.04 32位内核中的某些东西似乎没有正确configuration为与IBM硬件一起工作。 Fedora 32位似乎工作得很好。 有谁会碰巧知道这是什么原因造成的?
我在CentOS上有一个非常受欢迎的nginx web服务器,它提供了大量的静态内容。 当并发连接数量低时,服务器可以轻松提供高达4Gb的stream量,但是当并发连接数量增加时,服务器性能将下降到400Mb,I / O利用率达到100%。 我尝试了SSDcaching,使用noatime挂载文件系统,更改I / O调度程序,增加服务器内存高达256GB,nginx上的不同configuration,如aio,文件发送,但没有成功。 有没有其他的configuration来改善它的性能?
我有一个lfd电子邮件警报 – 我已经安装CSF – 今天透露,我的服务器(Centos 6.6)已经使用了大量的服务器资源5分钟。 我检查了我的VPS图表,发现我的服务器已经读了大约3.7GB,写了大约2.8GB。 关键是我最近才把我的网站公开,所以显然我没有很多的访问者。 我无法理解大量I / O的原因。 该电子邮件包含一个名为vmstat.txt的文件,我已经贴上了进一步的信息。 Output from vmstat: procs ———–memory———- —swap– —–io—- –system– —–cpu—– rb swpd free buff cache si so bi bo in cs us sy id wa st 0 7 1159256 50100 676 24568 10 15 166 34 72 87 1 1 96 2 0 如果我的服务器受到污染,我必须担心吗? […]
我已经用RAID1 mdadm软件RAID设置租用了这台根服务器。 使用dd来衡量文件IO速度,它达到了230MB / s的写入(默认块大小)。 但某些任务(如mysql)速度较慢,但使用iotop的平均值大约为20KB / s。 为了增加怪异感,在RAIDarrays仍然同步的时候开始,文件访问速度正常。 我想这只是发生在许多小文件。 作为我的/分区上的选项,我使用默认值,data = writeback,relatime 有什么我失踪? 感谢您的帮助/解答!
尽pipe我们的保存操作被设置为每15分钟发生一次,但我们仍然看到来自redis服务器的IO负载。 工作量是一个“整页caching”; 我们存储压缩的HTML blob。 如果需要的话,HTML可以重新创build,因此我们不需要最新的备份/持久性。 服务器规格: 2x Hex Core Intel Xeon E5-2640 2.5GHz 128GB RAM 2x 400GB Intel SSDs in RAID 1 IO: # pidstat -d | grep redis 05:01:35 PM PID kB_rd/s kB_wr/s kB_ccwr/s Command 05:01:35 PM 23450 0.01 3981.60 0.00 redis-server redis保存configuration: redis 127.0.0.1:6379> config get save 1) "save" 2) "900 10000" redis […]
我正在寻找在红帽服务器上以日志文件(每天大约5G)生成大量数据的应用程序。 这个过程在一周中运行了24个小时,所以当天没有修改文件的时间没有意义,虽然午夜时间添加的信息并不是特别重要,所以如果丢失的话可以让我们说一个那段时间的数据只有几秒钟。 为了每天制作日志文件的“安全”档案,我创build了一个脚本,在清晨的某个时间点执行以下操作: 将该文件的副本复制到本地文件夹 截断“活动”文件 tar +压缩副本 将副本的tar.gz移动到我们的存档空间 如果有明显的问题,这里是脚本本身: DF=$(date +"%Y%m%d_%H%M%S") TARGET="fixdata-logs-$DF" cp -r ./fixdata/logs $TARGET #Truncate the original log file find ./fixdata/logs -name '*.log' -exec sh -c 'cat /dev/null >| {}' \; #Zip the log files tar -zcvf $TARGET.tar.gz $TARGET #Delete the labelled copy rm -rf $TARGET #Archive files older tha 3 days find […]
[编辑]这个问题是不同于主持人提出的,我试图找出什么可能导致API由于几行代码变得缓慢。 我不是按照主持人的build议去做容量计划。 我已经inheritance了一些性能问题的服务器。 它运行节点js,nginx,基本MEAN栈。 (DB在另一台服务器上) 每当我复制一个文件(大小约为150MB的日志文件)或vim文件的大小,“iostat -x 1”的输出将如下 Device: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util scd0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 sda 0.00 8137.62 0.00 49.50 0.00 29924.75 604.48 17.32 123.54 16.50 81.68 avg-cpu: %user %nice %system %iowait %steal %idle 1.59 0.00 24.34 0.00 0.00 74.07 […]