想提高kern.ipc.somaxconn的价值 随着sysctl工作正常 $ sudo sysctl kern.ipc.somaxconn=2048 $ kern.ipc.somaxconn: 128 -> 2048 核实: $ sysctl -a|grep somaxconn kern.ipc.somaxconn: 2048 但是,如果我在/boot/loader.conf或/etc/sysctl.conf中设置这个值: $ cat /etc/sysctl.conf # $FreeBSD: src/etc/sysctl.conf,v 1.8 2003/03/13 18:43:50 mux Exp $ # # This file is read when going to multi-user and its contents piped thru # “sysctl'' to adjust kernel values. “man 5 sysctl.conf'' […]
当我向ufw添加规则然后启用它时,我在sysctl.conf一些设置将变为无效,所以我必须在ufw enable之后执行sysctl -p 。 所以例如我在sysctl.conf一个设置是不回复ping,在启用ufw之后,可以再次ping服务器。 为什么是这样? 以下是我的sysctl.conf中的一些设置: net.ipv4.conf.all.rp_filter = 1 net.ipv4.conf.default.rp_filter = 1 net.ipv4.icmp_echo_ignore_broadcasts = 1 net.ipv4.conf.all.accept_source_route = 0 net.ipv6.conf.all.accept_source_route = 0 net.ipv4.conf.default.accept_source_route = 0 net.ipv6.conf.default.accept_source_route = 0 net.ipv4.conf.all.send_redirects = 0 net.ipv4.conf.default.send_redirects = 0 net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_max_syn_backlog = 2048 net.ipv4.tcp_synack_retries = 2 net.ipv4.tcp_syn_retries = 5 net.ipv4.conf.all.log_martians = 1 net.ipv4.icmp_ignore_bogus_error_responses = 1 net.ipv4.conf.all.accept_redirects = 0 […]
对于每个连接创build一个线程的networking应用程序(如Pound),threadcount可能成为您可以服务的并发连接数的瓶颈。 我正在运行FreeBSD 8 x64: $ sysctl kern.maxproc kern.maxproc: 6164 $ sysctl kern.threads.max_threads_per_proc kern.threads.max_threads_per_proc: 1500 $ limits Resource limits (current): cputime infinity secs filesize infinity kB datasize 33554432 kB stacksize 524288 kB coredumpsize infinity kB memoryuse infinity kB memorylocked infinity kB maxprocesses 5547 openfiles 200000 sbsize infinity bytes vmemoryuse infinity kB pseudo-terminals infinity swapuse infinity kB […]
我运行Ubuntu 14.0.4 LTS,即时通讯尝试改变一些默认值进行优化。 我运行sysctl -a来查看所有的值。 我有/etc/sysctl.conf和/etc/sysctl.d/其中有几个10 – *。conf文件。 我想要更改net.ipv4.tcp_max_syn_backlog值,但是它不存在于上面的任何configuration文件中。 a)我应该只在这些文件中input新值吗? 存储的默认值在哪里? b)更改值后,我应该运行服务procps开始或sysctl -p ? 我已经读过,configuration文件可以在以下地方: /run/sysctl.d/*.conf(在我的系统上不存在) /usr/local/lib/sysctl.d/*.conf(不存在于我的系统上) /usr/lib/sysctl.d/*.conf(不存在于我的系统上) /lib/sysctl.d/*.conf(不存在于我的系统上) /etc/sysctl.d/*.conf /etc/sysctl.conf中 提前致谢
不是真正的networking人,所以请忍受我。 我目前正在托pipe一个Web应用程序,它将UDP定期发送到其子网中的所有IP地址。 那是2048个IP。 我的问题是它抛出一段时间后No buffer space available 。 我使用sysctl调整了一些值,即: net.ipv4.neigh.default.gc_thresh1 = 2048 net.ipv4.neigh.default.gc_thresh2 = 4096 net.ipv4.neigh.default.gc_thresh3 = 8192 它的工作,但严重减慢服务器的响应时间。 它是用Java编写的,运行在fit-pc2 (1.1GHz,1GB的RAM,SD卡)上。 鉴于资源有限,如何优化服务器/内核参数来解决No buffer space available问题?
我尝试通过编辑/etc/sysctl.conf来更改net.ipv4.netfilter.ip_conntrack_max net.ipv4.netfilter.ip_conntrack_max = 65535 和sysctl -p 但我收到错误: sysctl:不能stat / proc / sys / net / ipv4 / netfilter / ip_conntrack_max:没有这样的文件或目录 CentOS 7
我正在设置一个用于软件演示目的的笔记本。 该机具有8GB内存,Core i7 Intel CPU,128GB SSD,运行Ubuntu 12.04 LTS 64bit。 笔记本电脑用作KVM主机,运行less数KVM客人。 所有这些客人使用virbr0默认桥。 为了使它们能够使用多播相互通信,我在主机的/etc/sysctl.conf添加了以下内容,如下所示 net.bridge.bridge-nf-call-ip6tables = 0 net.bridge.bridge-nf-call-iptables = 0 net.bridge.bridge-nf-call-arptables = 0 之后,我遵循man sysctl(8) ,发布了以下内容: sudo /sbin/sysctl -p /etc/sysctl.conf 我的理解是,这应该使这些设置在重新启动时保持。 我testing了一下,惊奇的发现了以下几点: root@sdn1 :/proc/sys/net/bridge# more *tables :::::::::::::: bridge-nf-call-arptables :::::::::::::: 1 :::::::::::::: bridge-nf-call-ip6tables :::::::::::::: 1 :::::::::::::: bridge-nf-call-iptables :::::::::::::: 1 所有的默认值都回来了! 是。 我可以使用一些kludgy“绕过”,比如将/sbin/sysctl -p /etc/sysctl.conf放入主机的/etc/rc.local但我宁愿“正确地做”。 我误解了手册页,还是有什么我错过了? 感谢任何提示。 – 扎克
非常奇怪的情况。 我从前一个pipe理员那里inheritance了一些Xservers,我曾经负责在各个层次上进行清理。 我熟悉Ubuntu中的设置,对于命令行(包括从源代码编译)非常熟悉,也知道如何在OS X中操作命令行。 但是在运行10.6.8(Snow Leopard)的服务器上遇到了一些莫名其妙的问题。 首先,我想将软件防火墙彻底closures。 听起来很简单,进入服务器pipe理,只是告诉它停止正确的防火墙? 不! 所以,如果我closures防火墙,并且执行以下命令来加倍检查命令行: sysctl -a | grep net.inet.ip.fw.enable 结果如预期: net.inet.ip.fw.enable: 0 但是如果我在5分钟左右再次检查它,它会再次变得神奇: net.inet.ip.fw.enable: 1 与NAT转发同上。 sysctl -a | grep net.inet.ip.forwarding 在服务器pipe理中禁用它,结果如下: net.inet.ip.forwarding: 0 几分钟后: net.inet.ip.forwarding: 1 WTF?!? 我检查了crontabs,我是机器上唯一的用户。 我有另一台机器上的服务器pipe理应用程序设置为观看这台机器,但它并没有运行的所有时间。 而这个问题在那之前确实存在。 我不太熟悉sysctl所以需要一些指导。 FWIW,我在最近已经在/etc/sysctl.conf设置了一些以太网调整,但没有连接到上面的其他命令或设置。 为什么这些设置会在几分钟之后奇迹般地改变? 可以做些什么来阻止这一点。 在此先感谢帮助和指针。 编辑:根据下面的注释之一/etc/hostconfig内容: AFPSERVER=-NO- AUTHSERVER=-NO- TIMESYNC=-NO- QTSSWEBADMIN=-NO- QTSSRUNSERVER=-NO- MYSQLCOM=-YES- IPFORWARDING=-NO-
Mar 24 03:29:26 kernel: [1557411.243821] TCP: time wait bucket table overflow (CT0) Mar 24 03:29:26 kernel: [1557411.243828] TCP: time wait bucket table overflow (CT0) Mar 24 03:29:26 kernel: [1557411.243998] TCP: time wait bucket table overflow (CT0) Mar 24 03:29:26 kernel: [1557411.244877] TCP: time wait bucket table overflow (CT0) : [1564292.095620] __ratelimit: 37822 callbacks suppressed Mar […]
tcp_rfc1337设置似乎有一个TIME-WAIT暗杀的解决scheme。 第一个问题是旧的重复数据可能在新的连接中被错误地接受,导致发送的数据被破坏。 第二个问题是,由于旧的重复数据包进入新的连接,连接可能变得不同步并进入ACK循环,这将变得不同步。 第三个也是最后一个问题是旧的重复数据包可能会错误地input新build立的连接并终止新的连接。 从我所读到的问题来看,要解决这个问题,设置在套接字处于TIME-WAIT状态时忽略RST(重置)数据包 。 那么,为什么这个设置默认是启用的呢? 使用这个有什么缺点? 当我研究阻止SYN泛滥攻击时,我实际上已经了解了这个variables。 你认为这个设置有助于阻止它们吗?