Articles of sysctl

错误:“net.netfilter.nf_conntrack_acct”是一个未知的密钥

我在Debian 5.0.8中运行sysctl -p时遇到了这个错误。 错误:“net.netfilter.nf_conntrack_acct”是未知的密钥 我的sysctlconfiguration net.netfilter.nf_conntrack_acct = 1 net.ipv4.netfilter.ip_conntrack_max = 9527600 net.ipv4.netfilter.ip_conntrack_tcp_timeout_established = 7200 输出lsmod ipv6 289352 34 loop 19724 0 nf_conntrack_ipv4 19352 0 nf_conntrack 71440 1 nf_conntrack_ipv4 joydev 15232 0 evdev 14592 0 ext3 125456 3 jbd 54696 1 ext3 mbcache 13188 1 ext3 raid1 24832 4 md_mod 81700 5 raid1 thermal_sys 17728 0 […]

应该在绑定主机或成员从机上设置rp_filter sysctl参数吗?

我有一台运行RHEL6.4的服务器。 我需要为我的服务器的专用互连configuration.rp_filter sysctl参数。 该服务器有2个网卡绑定在一起。 我查看了文档,并在网上search,但没有find确切的信息应该如何configuration。 我应该将其设置在保税界面上吗? net.ipv4.conf.bond0.rp_filter = 0 或者我应该将其设置在2个物理从NIC上? net.ipv4.conf.em1.rp_filter = 0 net.ipv4.conf.em2.rp_filter = 0 我不能使用net.ipv4.conf.all.rp_filter或net.ipv4.conf.default.rp_filter 。

为繁忙的服务器推荐的TCP保持活动设置

我们在一个相当繁忙的Debian服务器上遇到了一些networking超时问题,并且维护了到networking上其他许多服务器的多个连接。 这是我们目前在sysctl.conf中的TCP keepalive设置: net.ipv4.tcp_keepalive_time=60 net.ipv4.tcp_keepalive_intvl=90 net.ipv4.tcp_keepalive_probes=3 也许这是一个问题。 对于繁忙的服务器,build议使用哪些Keepalive设置?

linux + sysctl -a +从哪里sysctl -a打印所有的内核参数

我们有linux机器redhat 6 当我们打印/etc/sysctl.conf中的所有参数时,我们只看到〜20,但是当我们执行sysctl -a时,我们看到的是200 所以从哪里sysctl -a打印所有这些参数? 或者例如 当我们这样做 sysctl -w variable=value 如何知道variables应该保存在哪里? 第二 如何知道这个dynamic或静态的每个参数?

如何学习一个sysctl参数的最大/最小值可以在FreeBSD中?

我有一个简单的问题。 我想学习一个sysctl参数的最大/最小值可以。 我在哪里可以find这些参数的界限? 谢谢

无法访问Ubuntu EC2 ssh,连接到服务器IPclosures

我的服务器由于stream量过大而出现错误,并且在访问网站时经常出现此消息 Error: EMFILE: too many open files, open '/home/ubuntu/chat2/public/style.css' at Error (native) 为了解决这个问题,我search了一下,并试图增加Ubuntu中的Ulimit。 最近我更改了以下文件 sysctl.conf 正如我遵循本教程http://ithubinfo.blogspot.in/2013/07/how-to-increase-ulimit-open-file-and.html 也改变了 /etc/security/limits.conf 我这样做后,我退出了我的SSH,然后尝试login,从那以后我无法进入。 它login,然后告诉我连接到(服务器IP)closures。 看到 我怎样才能访问我的terminal和/或恢复我的limits.conf和sysctl.conf ? 更新: 我试图访问它通过FTP文件zilla,它给错误“意外的文件SFTP结束”。 如何在没有terminal访问的情况下再次编辑这些文件?

“TCP:时间等待桶表溢出”错误 – 我能做些什么来缓解?

我有一个运行Debian 7(proxmox)的OpenVZ容器的遗留系统,我看到一个麻烦的问题,系统被运行apache前端的VZ容器的打开连接淹没。 发生这种情况时,服务器上的日志将填充数千个“TCP:时间等待桶表溢出(CT233)”错误。 这与来自networking服务器的缓慢响应相结合。 有什么我可以做的,以缓解这个问题? 经过Googlesearch,我已经对各种conntrack设置做了一些调整,但是我不愿意做任何过激的事情,而没有更好地理解这些影响可能是什么(或者,实际上这是否可能有助于任何情况) 想知道情况是什么,这里是今天发生这种情况时“sysctl -a | grep conntrack”的输出: net.netfilter.nf_conntrack_generic_timeout = 480 net.netfilter.nf_conntrack_tcp_timeout_syn_sent = 120 net.netfilter.nf_conntrack_tcp_timeout_syn_recv = 60 net.netfilter.nf_conntrack_tcp_timeout_established = 345600 net.netfilter.nf_conntrack_tcp_timeout_fin_wait = 120 net.netfilter.nf_conntrack_tcp_timeout_close_wait = 60 net.netfilter.nf_conntrack_tcp_timeout_last_ack = 30 net.netfilter.nf_conntrack_tcp_timeout_time_wait = 120 net.netfilter.nf_conntrack_tcp_timeout_close = 10 net.netfilter.nf_conntrack_tcp_timeout_max_retrans = 300 net.netfilter.nf_conntrack_tcp_timeout_unacknowledged = 300 net.netfilter.nf_conntrack_tcp_loose = 1 net.netfilter.nf_conntrack_tcp_be_liberal = 0 net.netfilter.nf_conntrack_tcp_max_retrans = 3 net.netfilter.nf_conntrack_udp_timeout = […]

达到最大TIME_WAIT套接字(试过tcp_fin_timeout)

tl; dr:我如何让内核尽可能快速地删除TIME_WAIT /closures套接字? 我不关心数据丢失,因为我没有发送任何。 我正在一个非常孤立的机器上运行一个小testing场景。 我在同一主机上运行两个简单的C程序,应用程序的目的是将客户端套接字连接到服务器套接字并尽可能快地放下。 该应用程序速度足够快导致客户端导致“无法绑定到地址”的套接字(或者说fd)池死锁,其原因似乎是每个可用套接字插槽上的TIME_WAIT 。 我用ss -svalidation了这一点。 为了解决这个问题,我记得在sysctl下设置了三个值。 而这个已经足够解决这个问题,但由于某种原因设置如下: net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_fin_timeout = 1 不工作了。 这只会使每秒的连接数从20k +下降到大约每分钟4个 。 我可能记得上面的sysctlnetworkingconfiguration中的错误设置,但是我以前每秒钟都会从这台机器中获得大约20k +的连接数。 那么为什么这一下子把我锁到4 /秒呢? 同一台机器,与Arch Linux最小安装对127.0.0.1运行的i7。 我尝试设置的主要信息来源是: 如何减lessTIME_WAIT中的套接字数量? 编辑: 看起来tcp_fin_timeout对系统没有影响。 根据这张图片判断,即使服务器(左上angular)和客户端(右上angular)不再进行任何连接,仍然有数千个连接仍在timewait 。 在10秒的运行结束时,我设法通过了18805个连接,这个连接对于这台机器来说不是一个漏洞(因为服务器和客户端驻留在同一台机器上,所以~36k个TIME_WAITsockets)。 为什么tcp_fin_timeout在一秒之后不会丢弃连接? 这绝对是不尊重我的自定义tcp_fin_timeout操作系统。

sysctl.conf中net.ipv4.tcp_max_syn_backlog的值

我正在调整sysctl.conf 。 根据linode网站的优化指南 ,以下是在sysctl.conf设置的一个合理的值: net.ipv4.tcp_max_syn_backlog = 3240000 但是,archlinux优化指南中的值相同 : net.ipv4.tcp_max_syn_backlog = 65536 最后,在另一个优化博客 (这是旧的,但仍然在谷歌上相当高),价值被吹捧为: net.ipv4.tcp_max_syn_backlog = 4096 所有这些球场都大不相同。 将这个值设置为高数字(相对于低数字)的原因是什么? 哪一个应该是真正的“理智”值呢?

是否有osX的sysctl内核参数的位置?

我想了解一下os X的内核参数。 我可以find他们列出,但我在哪里可以find他们的意义? 例如这个参数 net.alf.loglevel: 55 不在手册页中,不论是BSD还是osX。 人们如何知道如何设置? 编辑:我find了这个链接。 它帮了我很多。