我想写一个简单的Apachepipe道日志logging指令,我正在失败。 我只想grep出200个响应代码集中我的日志文件到ELK。 这是我创build的自定义日志格式。 LogFormat "%s %h %l %u %t \"%r\" %b" remove 这是pipe道日志 CustomLog "|/bin/grep -v '^200' /var/log/apache2/pi-mirror.com/access.log" remove 我在apache2错误日志中得到以下错误。 AH00106: piped log program '/bin/grep -v '^200' /var/log/apache2/pi-mirror.com/access.log' failed unexpectedly 我似乎无法弄清楚这里发生了什么。 我通过apaches文档阅读pipe道日志logging,我找不到任何可能做错的事情。 这在Apache2 2.4.7上运行 预先感谢您的帮助。 注意 进一步研究,我发现apache 2.2和apache 2.4改变了这种做法。 以前,shell是自动生成的,但在新的2.4版本中,您必须手动指定一个shell。 结果我改变了我的语法 CustomLog "|$/bin/grep -v '^200' /var/log/apache2/pi-mirror.com/access.log" remove 这个改变做了以下。 由于某种原因,当我重新启动apache2它吐出所有的输出到stdout,我从terminal看到这一切。 但是,然后失败,相同的错误信息。 这几乎就像apache没有真正开始这个重复的,这让我想知道如果我需要做别的事情来解决这个问题。
如果有我的日常cron lograte /etc/cron.daily/logrotate — assume cron.daily is run at 1.05am daily 如果我的logrotateconfiguration有一个 weekly 设置 这是否意味着我的logrotate将每天运行,但日志只能每周轮换? 和每周以来/什么时间? – (自日志文件创build时间或自上次运行logrotate以来)?
我试图通过IAX2注册一个VoIP软电话(Zoiper应用程序的iOS)与Asterisk安装。 目前,这会导致软件电话侧出现错误消息“拒绝注册(29)”。 我能从Asterisk那边获得更多关于这个错误的信息吗? 目前我在/var/log/asterisk/messages中看不到任何相关的东西。
我刚刚部署了tomcat 9,我想检查catalina.out日志,因为它正在运行,但是我注意到停止时它会将日志输出转储到catalina。[date] .txt文件中。 是否有一些额外的configuration要做到实时logging到catalina.out?
我有Linux的红帽机器 – 6.8 并从/ var / log / message文件中看到以下几行: 从我的angular度来看,似乎是Linux挂起,因为服务器连接不好–100.1.93.7, 这是对的吗 ? Oct 30 04:39:40 guard_tap[18038]: Delayed server connection to 100.1.93.7 error: Connection timed out Oct 30 04:40:31 kernel: INFO: task oracle:16131 blocked for more than 120 seconds. Oct 30 04:40:31 kernel: Tainted: GW — ———— 2.6.32-642.4.2.el6.x86_64 #1 Oct 30 04:40:31 kernel: "echo 0 > […]
当我启用MySQL通用查询日志时,准备好的语句执行会被logging下来,如下所示: Execute SELECT col1, col2 FROM table1 WHERE col1 = ? 我已经看到了互联网上的其他信息,我认为这些信息显示人们看到了已准备好的语句参数的replace值,但我根本找不到任何有关这方面的信息。 我需要查看查询中使用的值,并且不能在客户端执行它,因为它是编译代码(虽然我试图告诉它连接端口3306,但ngrep显示没有stream量,所以我想这是使用套接字(如果可用的话,我不知道它是多么容易重build与数据包嗅探准备查询)。 如果我设置long_query_time = 0 ,慢查询日志将显示我后面的值? 还有什么其他的可能性?
我们正在使用syslog-ng将文件转储到networking存储位置。 每天有5个.log文件是由不同的服务器写的,在一天结束时,我需要按时间顺序合并5个文件,然后压缩它们。 在过去的2年中,我使用了logmerge ,它的运行效果很好。 确切的语法是: /local/bin/logmerge -f /mnt/logs/Windows/`date -d yesterday +\%Y-\%m-\%d`-sys*.log | gzip -9 -c > /mnt/logs/Windows/`date -d yesterday +\%Y-\%m-\%d`.log.gz && rm -f /mnt/logs/Windows/`date -d yesterday +\%Y-\%m-\%d`-sys*.log 在过去的几个星期里,这个过程由于.log文件有多大而破裂了。 现在每个人都超过7 GB,logmerge进程在sorting这么多行时失败了。 现在我只是把它们拼凑起来,但是由于日志不正确,search变得更加困难。 有没有更好的方法来合并这些文件并将其压缩?
基本上我用自定义configuration来监视php-fpm error.log文件: <source> type tail format none path /var/log/php-fpm/error.log pos_file /var/lib/google-fluentd/pos/php-fpm-error.pos read_from_head true tag php-fpm-error </source> 使用像这样的自定义日志指标: resource.type="gce_instance" resource.labels.instance_id="123456" logName="projects/example/logs/php-fpm-error" "exited with code 127" 在Metrics Explorer中,如果select“计数”作为聚合,我可以很清楚地看到度量上的错误事件。 但是,在警报策略中,我没有看到指定聚合的方法。 将警报策略设置为“最高值为0”和“最新值”是最好的方法吗? 这看起来很奇怪,因为度量值是非常小的像0.02。 谢谢
有人可以帮助我理解这个日志条目从import: 2017-03-29 09:12:20 1ct8iI-0001xv-W6 H=(outlook.com) [121.174.171.153] X=TLS1.0:DHE_RSA_AES_256_CBC_SHA1:256 CV=no F=<[email protected]> A=login_server:repairs@**REDACTED***.co.uk rejected after DATA: Your FROM must match your authenticated email user 这个错误是由我的acl引发的,它检查我的用户是否只从他们login的地址发送电子邮件。 但是,这个连接并不是来自我的用户的客户端(看起来像某人假装是outlook.com)。 这是否意味着他们已经破解了密码,或者这个acl以某种方式在smtp auth之前被触发? 有没有可能从日志条目中知道? 更新 进一步检查日志(使用eximstats),我发现这个: Relayed messages —————- 1 (outlook.com)[103.16.125.81] repairs@**REDACTED***.co.uk => mxs.mail.ru[217.69.139.150] [email protected] 2017-03-29 11:20:12 1ctAi3-0002U3-Kd <= repairs@**REDACTED***.co.uk H=(outlook.com) [103.16.125.81] P=esmtpsa X=TLS1.0:DHE_RSA_AES_256_CBC_SHA1:256 CV=no A=login_server:repairs@**REDACTED***.co.uk S=1455 id=DEBCAEFEBFEEBFACFFDAAEECE@**REDACTED***.co.uk 2017-03-29 11:20:20 1ctAi3-0002U3-Kd => [email protected] […]
我正在尝试限制保存在我的云端pipe理服务器上的日志数量。 我正在运行log4j 1.2,并且最近在我的configuration文件(/etc/cloudstack/management/log4j-cloud.xml)中添加了“ <param name="MaxBackupIndex" value="31"/> ”来保留31个日志: <appender name="FILE" class="org.apache.log4j.rolling.RollingFileAppender"> <param name="Append" value="true"/> <param name="Threshold" value="TRACE"/> <rollingPolicy class="org.apache.log4j.rolling.TimeBasedRollingPolicy"> <param name="FileNamePattern" value="/var/log/cloudstack/management/management-server.log.%d{yyyy-MM-dd}.gz"/> <param name="ActiveFileName" value="/var/log/cloudstack/management/management-server.log"/> <param name="MaxBackupIndex" value="31"/> </rollingPolicy> <layout class="org.apache.log4j.EnhancedPatternLayout"> <param name="ConversionPattern" value="%d{ISO8601} %-5p [%c{1.}] (%t:%x) (logid:%X{logcontextid}) %m%n"/> </layout> </appender> 然而,所有的日志仍然存在,我已经用完了想法。 log4j是否不将其存档策略应用于较旧的日志? 还有什么我需要改变? 任何build议,将不胜感激。