我在使用open-files-limit参数在Ubuntu 12.04上运行mysql 5.5时遇到了问题。 我最近注意到一些问题,由于1024限制,实际上主系统限制被设置为1024,所以我修改了/etc/security/limits.conf文件,内容如下: * soft nofile 32000 * hard nofile 32000 root soft nofile 32000 root hard nofile 32000 之后,我检查root的ulimit值,甚至是mysql用户,都返回了新的值:32000,所以我认为已经做了更改。 我还更改了my.cnf文件的值,将open-files-limit设置为24000,如下所示: open-files-limit = 24000 现在来奇怪的是,当我重新启动mysql服务,并检查open_files_limitvariables,它返回,它仍然设置为1024,所以我有同样的问题,以前(显然),我试图使用打开文件限制而不是在my.cnfconfiguration文件中的open_files_limit,相同的结果,但如果我重写服务命令启动服务,并启动只使用mysqld(没有额外的参数),服务启动,当我检查参数,它返回32000 …我不知道它从哪里获得这个值,因为它不是在my.cnf中设置的,至less不是通过命令行给出的。 任何想法,为什么它不工作的变化,以及如何以正常的方式解决它(通过服务启动…)?
我正在尝试提高ubuntu机器上所有用户的打开文件描述符最大值。 这个问题有点跟随这个问题。 即使在需要pam_limits.so时,ulimit也不会读取打开的文件描述符limits.conf设置 除了我已经在limits.conf中添加了所需的“根”条目 这里是条目 * soft nofile 100000 * hard nofile 100000 root soft nofile 100000 root hard nofile 100000 与pam_limits.so相关的pam_limits.so /etc/pam.d/中的所有相关文件中都未被注释,而fs.file-max已在/etc/sysctl.conf中正确设置 但是,我仍然看到 abc@machine-2:/etc/pam.d$ ulimit -n 1024 重启后。 可能是什么问题呢? 我的默认shell是/ bin / sh,我不能使用chsh来更改我的默认shell,因为我的用户在机器上是通过一些分布式身份validationscheme进行身份validation的。
我在nginx上看到了常见的“文件描述符太多”的错误。 经过大量search,解决scheme显然是增加可用于nginx的文件描述符的数量。 但没有足够的信息让我觉得这样做有意义和安全的做法。 以下是大多数论坛/电子邮件主题涵盖的要点: 操作系统有它自己的总文件描述符限制(在我的系统上, cat /proc/sys/fs/file-max outputs“100678”) 每个用户也可以有自己的限制(但在我的系统上,运行ulimit作为任何用户输出“无限” 更详细的底部看到更新 ) 有几个人说了些什么, 这个人说:“指令worker_rlimit_nofile没有指定”多less“,这是操作系统的限制。 指令worker_rlimit_nofile只是允许一个快速和肮脏的方式来扩大这个限制,如果它是不够的。 所以我想这意味着,为nginx操作系统用户设置限制,而不是在configuration中“更好”? 我只需要input一个worker_rlimit_nofile的值,这个值比每个worker的连接数要大一些,但是我觉得我并不知道这里发生了什么。 为什么每个员工的限额要less于操作系统限制? 我怎么知道我现在的限制是什么? 更新 :对于root用户和普通用户,ulimit输出“unlimited”,但是ulimit -Hn和ulimit -Sn都输出1024
我最近检查了我们的一个redis进程,以便在使用的地方限制哪些内容: cat /proc/<redis-pid>/limits 并惊讶地发现,这是在默认值低: Limit Soft Limit Hard Limit Max open files 4016 4016 我很惊讶,因为我们有以下configuration: # /etc/sysctl.conf fs.file-max = 100000 。 # /etc/security/limits.conf * soft nofile 100000 * hard nofile 100000 。 # /etc/ssh/sshd_config UsePAM yes 。 # /etc/pam.d/sshd session required pam_limits.so 谁能告诉我为什么增加的ulimit没有被应用到正在运行的redis进程? redis进程正在以用户'redis'的方式运行,服务器已经重新启动,因为限制已经增加。 我们在Debian挤压。
我不断收到这个错误在nginx/error.log和它驱使我nginx/error.log了: 8096 worker_connections exceed open file resource limit: 1024 我已经尝试了所有我能想到的东西,并且无法弄清楚在这里限制nginx的是什么。 你能告诉我错过了什么吗? nginx.conf有这个: worker_processes 4; events { worker_connections 8096; multi_accept on; use epoll; } 我改变了我的系统的ulimit security/limits.conf像这样: # This is added for Open File Limit Increase * hard nofile 199680 * soft nofile 65535 root hard nofile 65536 root soft nofile 32768 # This is added for […]
在pipe理操作系统(特别是OSX)的限制时,这三个工具的function和历史之间有什么区别和重叠: ulimit launchctl , launchd sysctl 我发现它调整OSX上的最大进程和打开文件限制令人困惑。 如果通过terminal启动某些进程而不是GUI,那么这很重要吗? 可能相关: OS X(10.5)中指定的默认限制在哪里? ulimit -n和/ proc / sys / fs / file-max如何不同?
有真正的ulimit窗口? 我find方法/程序如何防止一个程序吃100%的CPU。 谢谢。
在Debian Wheezy上, ulimit -a给出: open files (-n) 1024 我把它添加到/etc/security/limits.conf * hard nofile 64000 然后重启。 ulimit -a仍然给最大数量的打开的文件1024.任何人都可以抛出一些光呢?
我的MongoDB数据库在加载时遇到问题,出现以下错误垃圾邮件日志: [initandlisten] pthread_create failed: errno:11 Resource temporarily unavailable [initandlisten] can't create new thread, closing connection 我得出的结论是,我需要提高1024的“ulimit -u”或“Max processes”设置,并且在networking前端启动的情况下可能会超过这个设置(不确定如何检查) 。 我编辑了/etc/security/limits.conf来添加最后两行(前两个已经在那里): * soft nofile 350000 * hard nofile 350000 * soft nproc 30000 * hard nproc 30000 然后,我重新启动系统(顺便说一句,我应该这样做,或者应该重新启动Mongo服务吗?) 重新启动后,查看mongod进程的进程限制,似乎忽略了软限制: $ cat /proc/2207/limits Limit Soft Limit Hard Limit Units Max cpu time unlimited unlimited seconds Max file […]
服务器是Ubuntu 13.04(GNU / Linux 3.9.3-x86_64-linode33 x86_64)。 nginx是nginx / 1.2.6。 我一直在这个工作了几个小时,所以这是我得到的,这是我所做的。 tail -f /usr/local/nginx/logs/error.log 2013/06/18 21:35:03 [crit] 3427#0: accept4() failed (24: Too many open files) 2013/06/18 21:35:04 [crit] 3427#0: accept4() failed (24: Too many open files) 2013/06/18 21:35:04 [crit] 3427#0: accept4() failed (24: Too many open files) 2013/06/18 21:35:04 [crit] 3427#0: accept4() failed (24: Too many […]