Articles of linux

防止Linux内核过早地杀死Java进程

运行32核心244GB的Ubuntu 12.04.3 LTS。 它的Amazon EC2内存实例大一点,Java 1.7u25 我的java进程正在运行-Xmx226g 我试图用CQEngine创build一个非常大的本地caching,到目前为止它的速度非常快,拥有3000万条logging。 当然,我会添加一个驱逐政策,将允许垃圾收集清理旧的对象被驱逐,但真的试图推动这里的限制:) 在jvisualvm看来,总堆在180GB左右,即将死亡40GB。 我应该能够挤出更多。 不是说如果内核耗尽资源,我不希望内核杀死一个进程,但是我认为它早就把它杀了,并且想要尽可能地压缩内存使用。 ulimit输出如下… ubuntu@ip-10-156-243-111:/var/log$ ulimit -a core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited scheduling priority (-e) 0 file size (blocks, -f) unlimited pending signals (-i) 1967992 max locked memory (kbytes, -l) 64 max memory size (kbytes, -m) unlimited open files […]

SSH隧道无法正常工作,但无法find之前工作的失败点

我有一个奇怪的问题,突然端口转发停止工作在一个特定的场景对我来说。 默认情况下,我需要在所pipe理的所有服务器上转发一个特定的端口,所以我在〜/ .ssh / config文件中有以下内容: Host * ControlMaster auto ControlPath /tmp/%r@%h:%p ServerAliveInterval 120 ServerAliveCountMax 3 ForwardX11 yes ForwardX11Trusted yes RemoteForward 52698 127.0.0.1:52698 然后,我发起ssh到服务器( ssh [email protected] )并查询我的本地工作站,以确保有侦听器的端口52698; sudo lsof -i -P | grep 52698 sudo lsof -i -P | grep 52698 : AppName 40262 username 45u IPv6 0x4b497d2de68055a1 0t0 TCP *:52698 (LISTEN) sshd 92207 username 14u […]

主厨运行进程终止信号9

随着chef.log_level设置为debug ,我的stream浪者configuration停止与此作为唯一的指标。 如果这是由于资源所致,那么我怎样才能从Linux VM中挖出造成我的进程的罪魁祸首呢? 在这一点上,我可以把vagrant ssh变成vagrant ssh 。

IGMP多点传送到Xen VM主机的stream量合法吗?

我运行了两台基于Xen / CentOS 6.5的虚拟机,这两台虚拟机都是由同一家公司托pipe的,但是在不同的物理位置连接到不同的networking(基本/ 24位W /单个网关.1)。 我在第一台主机上开发了一个iptables防火墙,其中一部分从各种保留networking(192.168.0.0/16,127.0.0.0/8等)logging和丢弃了stream量,包括在这个列表中的是224.0.0.0/4。 在第一个虚拟机上,我很less看到任何保留networking的stream量,并且可以安全地假设它是伪造的并且放心的。 但是,一旦我在第二个vm上安装了相同的一组iptables规则,它就开始每隔几分钟从0.0.0.0到224.0.0.1logging数据包。 Jan 6 21:44:43 server kernel: ipt (reserved): IN=eth0 OUT= MAC=01:00:5e:00:00:01:00:25:90:2f:69:a8:08:00 SRC=0.0.0.0 DST=224.0.0.1 LEN=32 TOS=0x00 PREC=0xC0 TTL=1 ID=0 DF PROTO=2 tcpdump已经明确说明数据包实际上是IGMPv2组播数据包。 19:44:43.779680 IP (tos 0xc0, ttl 1, id 0, offset 0, flags [DF], proto IGMP (2), length 32, options (RA)) 0.0.0.0 > all-systems.mcast.net: igmp query v2 IGMP的主机知识似乎是: […]

arpd不发送ARP请求

有时候僵尸networking(或者其他)试图在一秒内扫描内部networking中的所有IP(2/21个子网)。 因此,路由器发出大量的ARP请求,而一些较慢的交换机会“堵塞” – 有时在局域网内部的ping会变成4秒,或者数据包完全丢失。 我已经读过,我可以使用arpd来caching负面的条目(主机处于离线状态),而不是在每次该主机的数据包进来时都重新发送请求。但是,我无法使其工作。 arpd -a 5 -n 60 -R 20 -B 10 -b /var/arpd/arp.db -k eth1 禁止所有广播ARP请求 – 不pipe从上次检查以来多长时间。 如果没有“eth1”选项,广播将继续像以前一样。 将/ proc / sys / net / ipv4 / neigh / eth1 / app_solicit设置为3不会改变任何内容。 发行版本是CentOS 6.4,带有一个定制的内核(支持ipset和imq的3.7.10)。 我已经重新编译它来添加CONFIG_ARPD。

如果所有转发器都失败,如何使BIND返回旧的caching内容?

我有本地转发BIND服务器安装在本地。 在它的configuration中有几个转发器: 选项{… forwarders {1.2.3.4; 5.6.7.8; }; …}; 由“转发器”指向的服务器持有TTL = 60秒的区域。 有时候所有这些货代都是无法进入的。 如果发生这种情况,在60秒内,localhost的BIND也停止响应具有“临时失败的名称parsing”错误的查询。 问题是:如何使本地主机的BIND响应本地caching查询,即使caching的条目已过期,所有的转发器都已死亡? 因为用不合时宜的回应回应比不回应要好得多。

GRE上的透明以太网不转发stream量

我在Linux 2.6.30.9上运行,一直试图在GRE隧道上build立一个透明的以太网。 使用的networking拓扑结构如下所示: 我想通过GRE使用透明以太网桥接PC1和PC2。 RouterA作为RouterB通过ppp0连接到Internet。 两个互联网连接都是PPPOE(PPPoEoA PVCs)。 所以我做: 在RouterA(linux 2.6.30.9)中: ip link add testgre type gretap remote 193.152.243.206 local 95.121.205.77 ttl 255 brctl addif br0 testgre ip link set testgre up 在RouterB(linux 2.6.30.9)中: ip link add testgre type gretap remote 95.121.205.77 local 193.152.243.206 ttl 255 brctl addif br0 testgre ip link set testgre up 一些命令输出: […]

Linux服务器崩溃(drm:drm_fb_helper_panic)

我们有一台运行Ubuntu 10.04 LTS的服务器(IBM x3850 8864)。 它充当KVM主机上的多个虚拟机(也运行Ubuntu 10.04)。 (物理)服务器有时会崩溃,如错误消息 检查监视图表,在崩溃之前没有高负载或任何其他不正常的事情发生。 这种崩溃每2-3个月发生一次。 在我们的情况下,把盒子扔掉太稀罕了,但往往忽视这个问题。 所以我的问题是: 这些错误信息是什么意思? 如果从错误信息中无法确定问题是什么,那么接下来要进一步调查这个问题又是什么呢?

Web服务器被某个IO进程阻塞

当负载上升到50时,我的web服务器每10-15分钟就会被一些IO进程​​阻塞! 通常我可以在阻塞期间使用高cpu在顶部看到“flush-9:1”进程。 这是一个Debian 6.0.8networking服务器与Xeon X3440,双SATA和双SSD硬盘在软件raid1中使用。 内核是:Linux版本2.6.32-5-amd64(Debian 2.6.32-48squeeze4)([email protected])(gcc版本4.3.5(Debian 4.3.5-4))#1 SMP Mon Sep 23 22 :2013年14:43 UTC 这台服务器多年来一直运行良好,但由于停电而没有正常closures。 从那时起,这种阻塞行为就出现了。 我试图用重新启动来修复它,但没有帮助。 可能是什么问题呢? 这里是关于阻塞的一个顶部捕获: 顶部 – 13:01:54最多16分钟,2个用户,平均负载:3.01,1.43,0.87 PID用户PR NI VIRT RES SHR S%CPU%MEM时间+命令 31100 www-data 20 0 349m 21m 8676 S 4 0.1 0:00.02 apache2 373根20 0 0 0 0 D 2 0.0 0:01.79 md1_raid1 393根20 0 0 0 […]

在Enterprise Linux 6上使用iptables NAT来破坏端口

我正尝试使用以下configuration在CentOS上设置强制网页门户redirect: 此configuration适用于前几个数据包,但突然间,目标端口在来自服务器的响应中损坏。 数据包跟踪如下所示: 客户端:制作原始networking请求的主机。 服务器:请求门户的原始目标:强制门户服务器 此数据包跟踪是从可以看到客户端和门户网站stream量的位置获取的。 以c:开头的行来自客户端,而p:来自门户端。 c: client:57877 -> server:80 [SYN] p: client:1092 -> portal:80 [SYN] NAT adjusted SYN p: portal:80 -> client:1092 [SYN, ACK] c: server:80 -> client:57877 [SYN, ACL] NAT reversed on the SYN/ACK c: client:57877 -> server:80 [ACK] c: client:57877 -> server:80 HTTP GET p: client:1092 -> portal:80 [ACK] p: client:1092 […]