Articles of linux

如何保证VPS的CPU时间?

我提供VPS和处女Debian它经常挂起:简单的ssh命令响应太久。 这是坏的 :( 我做了基准:每2分钟开始ffmpeg转换30秒低质量video。 通常需要3秒,但在挂机时间约20秒。 另外我每隔2分钟就打VPS。 图表是一样的。 performance良好的时间间隔约为15分钟,差25分钟左右 您可以使用https://docs.google.com/spreadsheets/d/1XYQV-5mompcFidOHL7XzbvvrVnjn_ZHnvBaND6RrrVY/edit?usp=sharing 另一台服务器从这个主机 同样的情况,但不要批评 如何避免这种情况? 似乎,在同一个专用服务器上托pipe的neigbour VPS会定期启动高CPU加载任务。 也许这是系统备份或相同的任务。 据我所知,内存是有保证的,但不是CPU。 另外我从这个主机上有另一个VPS,它似乎没问题(它也有相同的峰值,但远远less于) 专用服务器对于这个项目来说太贵了。 这是主机托pipe的情况,更换提供的是坏主意

如何阻止两个接口之间的所有stream量?

假设我在一个主机eth0和eth1上有两个接口。 我目前看到的行为是: 在eth0上接收stream量,在eth1上find合适的路由并尝试发送。 我已经拦截了进入eth0的数据包,所以我想停止这个转发,丢弃所有进入eth0的数据包,而不是在eth1上发送它们。 本质上,我想阻止一个主机上的两个接口之间的所有stream量。 这是可能的iptables或路由?

Linux上的PHP VPS主机的build议configuration为低内存

我正在使用PHP Webapp的VPS主机上使用Linode 。 Linode提供了各种Linux发行版。 我基本上是一个configuration后,将绝对最大限度地减less内存使用量,同时仍然保持网站的性能。 那么我应该如何configuration呢? 我听说nginx比Apache有更小的占用空间(通常更快); 我想要一些forms的操作码caching,无论是APC,eAccelerator,Zend,XCache或其他东西; 我将运行MySQL 5; build议的发行版? 我听说Arch Linux非常准系统(我习惯于Ubuntu)。 我正在使用GMail的域名电子邮件,所以什么都不需要; Linode似乎分开提供DNS服务(免费),所以我不需要运行DNS服务器,我会? 还有什么我可以做的,以保持内存使用率低?

Linux中crc错误的可能原因?

当我启动我的Arch Linux电脑时,它加载Linux,然后出现“crc错误”,系统暂停。 我已经更换了硬盘驱动器,加载了旧的硬盘驱动器的克隆,但我仍然得到错误。 内存错误,Linux本身的问题,还是其他因素造成的?

如何使用虚拟KVM的Xorg?

这是一个想法,在我头脑中浮现了几天,我只是想看看是否可行,如果是的话,实施它的最好方法是什么。 我有几台运行linux的计算机(Ubuntu是具体的),我想知道是否可以使用Xorg的服务器/客户端devise来创build虚拟KVM系统。 我的想法是让他们设置,使我的鼠标,键盘和显示器所连接的计算机作为所有三个服务器(包括自己)的客户端,并通过按Ctrl + Alt + F6,7切换它们,或8。 那么,这是可能的,还是类似的? 如果可能的话,有什么潜在的缺陷。 例如,如果服务器和客户端通过10/100内部networking连接,响应时间可能会受到影响?

我如何将存储库添加到ia32-apt-get?

我需要安装一些仅在64位(amd64)Ubuntu上的i386体系结构中可用的第三方二进制包。 如何添加新的32位存储库,以便ia32-apt-get将自动安装和转换i386-only二进制包及其依赖项?

Kernrate替代Linux或Solaris

题: 是否有一个已知的替代(或类似的工具) Kernrate的Linux或Solaris,如果是这样,我在哪里可以find更多的信息? 编辑: 查找哪些设备驱动程序正在生成大量的中断。 确定CPU密集型function。 以上所有,当运行一个实时系统。 或者是最好的select,相应地创build一个内核核心转储和分析?

在Slicehost上升级Fedora 10到11

我已经使用了以下说明: # yum -y update # yum install preupgrade # preupgrade-cli # reboot 它不能升级grub,重启后仍然是Fedora 10.问题似乎是slicehost特定的。 你可以帮我吗?

很多小的mysql-bin.NNNN文件

我们使用mysql 5.0.somethin进行二进制日志和复制。 然而,/ var / log / mysql中充满了大小141字节大小的mysql-bin.NNNNN文件。 使用mysqlbinlog我可以看到他们是空的有意义的SQL语句。 这并不是一个太大的问题,因为我有expire-log-days ,但是这有点烦恼。 有没有办法让MySQL将所有这些文件分组到一个,而不是创build大量的小文件?

在Linux中使用脚本结合多个PDF文件?

我想从X网站保存/下载PDF文件,然后将所有这些PDF文件合并成一个,这样我就很容易一次看到所有这些文件。 我做了什么, 从网站获取pdf wget -r -l1 -A.pdf –no-parent http://linktoX 将pdf合并为一个 gs -dNOPAUSE -sDEVICE=pdfwrite -sOUTPUTFILE=Combined_`date +%F`.pdf -dBATCH file1.pdf file2.pdf file3.pdf 我的问题是,我想在一个脚本中自动完成这一切,所以我不必每天都这样做。 这里新的pdf是每天在X中添加的。 那么,我怎样才能做到上面的第二步,没有给出所有的file*.pdf完整列表,我试着在第二步中做file*.pdf ; 但是它以随机顺序合并了所有的pdf。 接下来的问题是,每天的文件总数* .pdf是不一样的,有时5 pdf有时10 …但不错的东西是命名为file1.pdf file2.pdf … 所以,我需要一些帮助来完成上面的步骤2,所有的PDF文件按顺序组合,我不必明确指出每个PDF的名称 谢谢。 更新:这解决了这个问题 pdftk `ls -rt kanti*.pdf` cat output Kanti.pdf 我做了ls -rt , file1.pdf下载了file1.pdf ,然后是file2.pdf ,等等…只是做了ls -t把file20.pdf放到了开始,把file20.pdf放在了最后…