对于我的数据库分配,我们正在研究“数据库损坏”,并要求删除我已经使用命令完成的第二个重做日志文件: rm log02a.rdo这是在$ HOME / ORADATA / u03目录中。 现在我启动我的数据库使用startup pfile=$PFILE nomount然后我使用命令alter database mount; 现在当我尝试打开它alter database open; 它给了我这个错误: ORA-03113: end-of-file on communication channel Process ID: 22125 Session ID: 25 Serial number: 1 我假设这是因为第二个重做日志文件丢失。 还有log01a.rdo,但不是我删除的那个。 我怎样才能恢复这个现在,以便我可以再次打开我的数据库? 我已经查看了数据库创build脚本,并指定log02a.rdo文件为10M大小和2组的一部分。 如果我select group#, member from v$logfile; 我得到: 1 /oradata/student_db/user06/ORADATA/u03/log01a.rdo 2 /oradata/student_db/user06/ORADATA/u03/log02a.rdo 3 /oradata/student_db/user06/ORADATA/u03/log03a.rdo 4 /oradata/student_db/user06/ORADATA/u03/log04a.rdo 所以它是第2组的一部分。如果我尝试再次添加log02a.rdo文件“已经是数据库的一部分”。 如果我放下组2,然后再添加这些命令: ALTER DATABASE ADD LOGFILE […]
Ubuntu 12.04 Server x64,Varnish 3.0.2 我试图通过Apache的rotatelogs varnishncsa的日志,并从壳运行,事情工作正常: sudo varnishncsa -a -P /var/run/varnishncsa/varnishncsa.pid |/usr/sbin/rotatelogs /var/log/varnish/varnish.log.%Y%m%d%H 3600 在/ var / log / varnish中创build一个新的日志文件,每小时旋转(3600秒)。 不过,我正在努力在/etc/init.d/varnishncsa中以相同的方式运行: PATH=/sbin:/bin:/usr/sbin:/usr/bin DAEMON=/usr/bin/$NAME PIDFILE=/var/run/$NAME/$NAME.pid LOGFILE=/var/log/varnish/varnishncsa.log USER=varnishlog DAEMON_OPTS="-a -P ${PIDFILE}" DAEMON_PIPE="|/usr/sbin/rotatelogs /var/log/varnish/varnish.log.%Y%m%d%H 3600" … start_varnishncsa() { output=$(/bin/tempfile -s.varnish) log_daemon_msg "Starting $DESC" "$NAME" create_pid_directory if start-stop-daemon –start –verbose –pidfile ${PIDFILE} \ –chuid $USER –exec ${DAEMON} — […]
有时我会在日志文件上运行一个less +F ,然后截断。 我不想意识到该文件已被截断,并开始按照现在的文件。 目前,我被迫做了以下事情: (terminal1)> less +F my-file.txt (terminal2)> printf "" > my-file.txt (terminal1)>退出less (terminal1)>重新启动less: less +F my-file.txt 每次我截断文件(每天几十次 ),我必须执行步骤3-4。 这真是一个痛苦。 我想要做: (terminal1)> less +F my-file.txt (以及其他需要的选项) (terminal2)> printf "" > my-file.txt 就是这样。 less会自动意识到该文件已被截断,并从头开始跟随新文件。 这可能吗? 我应该less用什么标志来达到这个目的?
我们在Debian中使用logcheck软件包进行日志监控。 如果我理解正确,logcheck将监视日志,过滤掉已知的(正常和不重要的)消息,并在出现可能指示问题的任何消息时触发邮件。 Logcheck发送给我一个日志摘录(系统事件)。 但日志看起来并不可疑。 它包含如下消息: Jul 31 08:22:03 example pop3d: Connection, ip=[::ffff:123.456.789.123] 我认为logcheck也发送周围的日志部分,如果有一条线,触发通知 – 但我怎么能找出,确切的线触发这封邮件?
我们在我们的一台服务器上使用Blat来通过电子邮件发送日志文件并每晚报告。 随着报告数量的增加,似乎布拉特已经窒息并输出越来越多的错误。 有没有其他人使用布拉特或一个很好的,小交替呢?
我一直在处理大量的日志(每天增长大约1Gb),而且我以旧的方式pipe理它们,在将日志转到中央服务器之前将日志转储,然后存储在磁带上。 现在,因为这些日志可以由当局请求,在某些时候,我必须阅读它们,find他们需要的东西,并发回有趣的部分[ 我在意大利 ] …无论如何,处理这些东西已经变得非常困难随着生成的日志量不断增长,我的磁带存储以及跟踪这些东西也不像几年前那么容易。 我已经尝试过Graylog2,它似乎是一个非常好的一块软件,我唯一的问题是,有没有简单的方法将日志导出到另一个存储,并在需要时导入回来(也许我错误地理解了它的工作方式)。 有人可以向我提供他们用来pipe理这种数量的日志或解决scheme的例子,以便在需要时轻松导出日志并导入回来吗? 提前致谢
我有我的nginx设置阻止某些查阅者如此: if ($http_referer ~* (site_name) ) { return 403; } 这工作正常,但是我想也阻止引用到日志文件。 我尝试添加 access_log /path/to/server/bad_domain.log; 在if语句中; 然而这是行不通的。 有任何想法吗? 谢谢。 编辑: 我也试过这个无济于事。 if ($http_referer ~* (site_name) ) { set $crawler 'yes'; return 403; } location ~ .* { if ($crawler = 'yes') { access_log /path/to/server/bad_domain.log; } } 编辑2: 试 map $http_referer $log_referer { domain1.com 1; default 0; […]
用我的僵尸networking爬行整个互联网,但我什么也没find。 我在Debian上运行一个OpenVPN服务器,启用了LZ4-v2压缩function,大约有5个客户端。 现在我想知道哪里有可能赶上实际的压缩比例,比如0.97或者其他类似的东西。 反正有这个价值吗? 我宁愿简单的方法,但如果没有其他我会尝试的。 希望你看到我的小问题,你可以给我一些build议, 问候朱利安
好吧,我们都知道一个大的日志文件会使数据库性能崩溃。 今天,我们正在分析一个客户端的服务器,并看到一些比数据文件大约3900%的日志文件。 这让我很好奇,他们两个之间有没有最好的比例?
你对Apache日志文件的大小有任何限制 – access.log和error.log ? 具体来说,你可以给: 限制日志文件大小的原因 磁盘空间 任何其他? 原因不限制日志文件大小 研究性能问题或安全漏洞 任何其他? 这样做的方法 定期删除文件的Cron作业,还是前N行? 任何其他? 任何你可能在删除之前挽回的东西 例如,在删除访问日志之前,请先下载文件的下载次数 在做任何事情之前,我想先得到有经验的系统pipe理员的想法。 (标记为社区维基,因为这可能是一个意见。)