在发现ulimit -m之后不再在linux上做任何事情 ……我正在调查prlimit的使用。 我发现这应该是作为util-linux / util-linux-ng一部分存在,但是我已经在我的系统上安装了这个 find / -name prlimit 产生零结果; 我目前已经安装 util-linux-ng.x86_64 0:2.17.2-12.7.el6_3 我试过跑步 yum更新util-linux-ng 这使我想到了版本 2.17.2-12.18.0.1.el6 仍然是同样的问题; 我运行的是CenotOS 6.3,升级不是一个选项。
在一个JAVA应用程序的Ubuntu 14.04服务器上,我们得到Postgres太多的Open文件错误(使用Postgresql 9.5)。 我们在/etc/security/limits.conf中设置以下内容 * soft nofile 16384 * hard nofile 16384 root soft nofile 16384 root hard nofile 16384 postgres soft nofile 16384 postgres hard nofile 16384 还要在/etc/sysctl.conf中设置以下内容 kern.maxfiles=20480 kern.maxfilesperproc=18000 另外请以Postgres用户身份运行时查看以下结果: -> ulimit -Hn 16384 -> ulimit -Sn 16384 -> cat /proc/sys/fs/file-max 100268 在重新启动服务器并检查Postgres 100268的ulimit。但在检查postgres进程下的打开文件的限制仍然是1024和4096 # cat /proc/1072/limits Max open files 1024 4096 files […]
我想在容器中运行nspawn (即nspawn ),它要求最大文件描述符的数量要高于默认的1024。 这是在容器中,在适合于elasticsearch的systemd服务文件中完成的。 然而,在服务启动时这个请求不被考虑,限制保持在1024。 然后我尝试在容器内的命令行上更改此限制,但我相信这是不可能的(这是可以理解的): root@elk:/etc/elasticsearch# ulimit -n 65536 -bash: ulimit: open files: cannot modify limit: Operation not permitted 我相信这个限制应该是在主机层面上设定或允许设定的。 我应该在哪里设置?
在Debian 6中,如何限制用户有权访问的内存总量(常驻集大小和总虚拟内存)? 我已经尝试通过ulimit设置限制,但如果一个进程产生subprocess,subprocess没有限制他们的内存。 我也尝试通过/etc/security/limits.conf设置限制,但这些限制似乎不适用于从非loginshell或subprocess产生的进程。
我发现了很多描述如何通过/etc/security/limits.conf来增加打开文件数量限制的文章,但我不明白这样做的影响。 很多时候,我看到人们更新1024到2048.好吧,这些文件句柄必须花费RAM或其他东西。 为什么不把它增加到100000? 我打开文件吃什么资源? 有关如何增加限制的问题: https : //stackoverflow.com/questions/34588/how-do-i-change-the-number-of-open-files-limit-in-linux
例如,说我正在打nproc。 我希望日志消息出现/ var / log / messages或类似,但看起来像需要configuration。 我怎么做? 到目前为止,我找不到与Google有关的任何内容。 OS是CentOS 6.4。 谢谢!
我有一个Zope服务器(只是一个长期运行的Python进程),这往往会耗尽我的服务器上的所有内存几天后。 我不想每天晚上重新启动它 – 也许最好限制这个进程的内存,看看它是否可以正常工作。 那么,如何限制这个过程使用不超过256MB的内存? 该服务器是运行Centos 5.3的64位Intel机器。 我听说ulimit限制一个bash进程,但我怎么能限制它为一个python进程? 更新: 感谢您的想法! 我将使用混合的方法来解决我的问题: 我将使用ulimit启动服务,所以它只能使用256MB RAM 由于我有我的系统由Nagios监视,我会使用一个nagios-check命令来validation我的进程不超过192MB。 如果我的进程使用超过192MB,则会自动启动正常重启。 如果我的进程使用超过220MB或者进程根本不运行,pipe理员(我)会通过短信/电子邮件通知,所以我会手动处理这个问题。 这样,我想我是在安全的一面:当需要(通过nagios)自动平稳重启,并强制服务停止(通过ulimit),以防内存使用突然高峰
通常情况下/etc/security/limits.h只在login到shell时才起作用。 如何在Linux中分叉进程时, /proc/PID/limits的Max open files的值由哪个/proc/PID/limits控制?
Debian 8.0,pam 1.1.8-3.1,sshd 1:6.7p1-5。 我试图永久增加打开文件的最大数量。 在/etc/pam.d/我有: /etc/pam.d# grep pam_limits.so * atd:session required pam_limits.so common-session:session required pam_limits.so common-session-noninteractive:session required pam_limits.so cron:session required pam_limits.so login:session required pam_limits.so runuser:session required pam_limits.so sshd:session required pam_limits.so su:session required pam_limits.so 在/etc/security/limits.conf : * hard nofile 20000500 * soft nofile 20000500 在/etc/ssh/sshd_config : UsePAM yes 在/etc/sysctl.conf : fs.file-max = 20000500 我重新启动了操作系统,我在/var/log/auth.log看到的是: sshd […]
我正在运行Ubuntu 12.04。 我的问题是limits.conf中描述的ulimit值没有被应用,当我使用非root帐户SSH进入我的服务器。 无论是或正在被应用和覆盖。 我在/etc/security/limits.conf添加了适当的值 * soft nofile 64000 * hard nofile 64000 我不希望它适用于根,所以这很好。 我还将session required pam_limits.so添加到/etc/pam.d的文件中。 添加到 /etc/pam.d/login /etc/pam.d/common-session /etc/pam.d/sshd /etc/pam.d/su 而且我重新启动了我的服务器几次。 但是,文件打开限制总是显示为1024,而硬显示为4096。 我的.bashrc和.profile文件中的用户似乎并不包含任何可以改变这个值的东西。 如果我以root身份login并通过su运行命令,那么我会得到预期的ulimit。 su nodeserver ulimit -n #result is 64000 但是当我作为节点服务器的SSH我得到了4096的值。 还有其他的地方我应该看看这个价值可能设置的地方吗? 我可以查看在nodeserver用户login时运行的启动脚本/命令的列表吗? 这几乎是这里发生了什么,除了我的启动脚本中没有任何东西 – “打开文件”ulimit:通过limits.conf进行控制