日志大小pipe理

你们用什么来pipe理你的日志大小? 您将日志保存多久? 我意识到这最终取决于网站stream量和服务器硬件。 我的服务器上有4GB内存,配有运行Ubuntu Server的2x双核2.0 GHz处理器。 我还没有任何庞大的网站,我希望在转移之前弄清所有这些细节。

我使用logrotate做每日轮换(对大日志进行压缩),根据日志的内容和我需要多长时间(以及它们得到多大)来调整我保留的date。

您也可以将所有日志转储到中央Splunk服务器并删除它们。 当然,这只是pipe理Splunk服务器中的磁盘使用情况。

这取决于你 – 哪些日志轮换方法,你正在使用的服务器上的网站目前? 你觉得你需要多久才能login? 网站将会占用多lessstream量? 你发布的资源在很大程度上是不相关的,RAM / CPU只会在写日志(你不会改变)的时候真正起作用,分析它们并压缩它们 – 可用磁盘空间的数量是相关的。

我build议在每天之后压缩它们(所以log.1.gz log.2.gz等),删除超过一周的时间。

我使用比尔这样的东西,但因为我使用免费许可证,我只能索引500 MB /天。 所以对于我的情况来说,把所有的东西都转换成碎片是不好的。 相反,我将它们保存在本地,并按需索引(为了排除故障,我需要4-5个日志作为平均值)

你有多less个日志? 有什么可能需要他们? 如果你有足够的空间,我build议保留2,3天的未压缩日志,然后压缩它们。

还取决于你的交通,addinionaly每天旋转,这将是很好的旋转他们,如果超过一些门槛。 比方说500 MB。 使用5 GB的文件来处理日志是相当不可能的。