我有一个很奇怪的问题。 我的邮件服务器上的某些进程(但不是全部)会定期(每隔一个月左右)死掉。 死亡的一些过程是: SSH 达夫科特 后缀 不死的进程是: 的Apache2 我的系统正在运行(Debian Wheezy): $ uname -a Linux hostname 3.2.0-4-amd64 #1 SMP Debian 3.2.41-2+deb7u2 x86_64 GNU/Linux 我已经经历了/var/log文件,但是事情似乎都是在事件发生之后才发生的,事件总是发生在早晨6:25。 首先,我认为它与ntpdate每日cron做的事情,所以我删除它,并用ntpd取代它,而不需要cron。 有帮助吗? 没有。 然后我认为它有syslogd做的事情。 看来,死亡的进程都在使用syslog进行日志logging。 我search了一下,但是我没有发现其他人遇到与我一样的问题。 当您的日志logging机制不起作用时,真的很难find问题所在! 这里是所有在事件发生时间(6:25)被修改的日志文件。 在那之后没有日志,所有的日志活动都停止了! 请看看是否有可能导致进程死亡或logging停止的事情。 在/ var / log / syslog的 Feb 16 06:25:01 hostname /USR/SBIN/CRON[32606]: (root) CMD (/usr/local/ispconfig/server/server.sh 2>&1 > /dev/null | while read line; do […]
我希望Monit提醒我,如果有任何东西出现在系统日志中 – 因为任何东西都会出现exception。 我已经尝试了以下操作,并且在手动向syslog echo testing >> /var/log/syslog添加内容时,我没有收到任何警报电子邮件。 我已经validation了警报电子邮件正在工作。 check file syslogd_file with path /var/log/syslog if match ".*" then alert if match .* then alert if changed timestamp then alert
我想知道什么是最容易的方式转发我的docker集装箱日志到一个ELK服务器,到目前为止,我已经尝试了search互联网后的解决scheme根本没有工作。 基本上我有一个使用docker-compose运行的docker镜像,这个容器不会在本地logging任何东西(它由不同的服务组成,但它们都不是logstash或者其他东西),但是我通过docker-compose logs docker logs -tf imageName看到了日志docker-compose logs docker logs -tf imageName或者docker-compose logs 。 由于我用compose启动容器,因此无法使用–logs-driver选项(至less我不知道如何)。 因此,我想知道是否有人可以指导我如何将日志转发到ELK容器。 提前致谢, 问候 scheme : 感谢madeddie,我可以通过以下方式来解决我的问题,提到我使用了他在post中提到的基本的ELK-stack-in-containers。 首先,我更新了我的容器docker-compose.yml文件,以便为日志引用添加条目,就像madeddie告诉我的,每个服务都包含一个条目,我的docker-compose代码片段看起来像这样 version: '2' services: mosquitto: image: ansi/mosquitto ports: – "1883:1883" # Public access to MQTT – "12202:12202" #mapping logs logging: driver: gelf options: gelf-address: udp://localhost:12202 redis: image: redis command: redis-server –appendonly yes ports: – […]
如何configurationsyslog-ng来发送主机名和IP地址。 目前,日志是通过设备/机器的IP地址发送的,但是我们想添加主机名,这样我就可以使用正确的主机名保持我的IPpipe理数据库(不,我不使用DHCP :))
在Ubuntu 10.04 LTS中,我正在使用stock rsyslogconfiguration,并在/etc/rsyslog.d中添加一个自定义文件,其中包含以下内容: # cat /etc/rsyslog.d/62-pc local3.debug /var/log/pc/debug.log local3.* /var/log/pc/main.log 这两个引用的文件存在,文件和包含的目录可由syslog用户读写。 然而,我发现这个消息的唯一地方是/var/log/syslog 。 /var/log/pc/main.log是空的。 另外, /var/log/syslog的消息。 我已经检查过消息来源的程序不是造成这些问题的原因: logger命令也会出现问题。 这里有什么可能是错的?
我只是将Ubuntu 9.10系统上的内核从2.6.32.1更新到了2.6.33.5 ,而且一切都很顺利,除了现在我的系统日志被getty中的错误淹没了: Jul 25 11:01:54 kobol getty[2414]: /dev/tty4: cannot open as standard input: No such device Jul 25 11:01:54 kobol getty[2415]: /dev/tty2: cannot open as standard input: No such device Jul 25 11:01:54 kobol getty[2416]: /dev/tty6: cannot open as standard input: No such device Jul 25 11:01:54 kobol getty[2417]: /dev/tty3: cannot open as standard […]
有没有办法链接系统日志转发? 例如,客户端主机如何将其系统日志转发到ServerA和ServerA将所有内容转发到CentralSyslogServer? 我正在使用rsyslog。 原因是服务器A是一个双机主机,从其他主机获取日志,这些主机应该都存储在CentralSyslogServer中。 目前CentralSyslogServer似乎只能得到ServerA的本地日志,但没有任何从客户端主机转发到ServerA。 解决: 我必须编辑/ etc / sysconfig / syslog并将-h添加到SYSLOGD_OPTIONS 我的错误 – serverA正在使用syslogd
我正在运行Ubuntu和Postgresql 9。 我已经启用postgresqllogin到系统日志,并添加以下指令到configuration文件: syslog_facility = 'local0'". 我已经尝试configuration系统日志logging到一个单独的文件,但提交。 我更新了/etc/syslog.conf,使其包含(请参阅postgresql-directive的最后一行) auth,authpriv.* /var/log/auth.log *.*;auth,authpriv.none -/var/log/syslog daemon.* -/var/log/daemon.log kern.* -/var/log/kern.log lpr.* -/var/log/lpr.log mail.* -/var/log/mail.log user.* -/var/log/user.log mail.info -/var/log/mail.info mail.warn -/var/log/mail.warn mail.err /var/log/mail.err news.crit /var/log/news/news.crit news.err /var/log/news/news.err news.notice -/var/log/news/news.notice *.=debug;\ auth,authpriv.none;\ news.none;mail.none -/var/log/debug *.=info;*.=notice;*.=warn;\ auth,authpriv.none;\ cron,daemon.none;\ mail,news.none -/var/log/messages *.emerg * daemon.*;mail.*;\ news.err;\ *.=debug;*.=info;\ *.=notice;*.=warn |/dev/xconsole local0.* -/var/log/pgsql 我用“/etc/init.d/sysklogd restart”和“restart rsyslog”重新启动了系统日志。 […]
我正在尝试将我的Mac Mini服务器用作路由器的远程日志服务器。 我设置路由器将日志转发到服务器,但我没有看到控制台应用程序中的任何地方的日志。 我错过了什么吗? 非常感谢。
我有一个集中的rsyslog服务器A,它通过服务器X,Y,Z的TCP接收一堆日志。然后它将这些文件存储在磁盘上,并将它们转发到logstash服务器B(在另一台机器上)。 对于转发到logstash服务器BI使用TCP,如下所示: $template logstash_json,"{\"@timestamp\":\"%timestamp:::date-rfc3339,jsonf:@timestamp%\",\"@source_host\":\"%source:::jsonf:@source_host%\",\"@source\":\"syslog://%fromhost-ip:::json%\",\"@message\":\"%timestamp% %app-name%:%msg:::json%\",\"@fields\":{\"facility\":\"%syslogfacility-text:::jsonf:facility%\",\"severity\":\"%syslogseverity-text:::jsonf:severity%\",\"program\":\"%app-name:::jsonf:program%\",\"pid\":\"%procid:::jsonf:processid%\"}}" $WorkDirectory /var/cache/rsyslog # default location for work (spool) files – make sure it's created $ActionQueueType LinkedList # use asynchronous processing $ActionQueueFileName srvrfwd # set file name, also enables disk mode $ActionResumeRetryCount -1 # infinite retries on insert failure $ActionQueueSaveOnShutdown on # save in-memory data if rsyslog shuts down # Ship […]