Articles of gzip

Linux gzip多个子目录到单独的档案?

我怎么能够将子目录压缩到单独的档案? 例: directory subdir1 subdir2 应该创buildsubdir1(.tar).gz和subdir2(.tar).gz

如何限制nginx的访问日志文件大小和压缩?

我希望得到一些方向,如何设置截断和gzip在我的域的访问日志。 我注意到核心nginx访问日志默认分割和压缩,但是我个人的访问日志不断增长。 这是可以设置和由nginx或我的系统pipe理它的核心日志上的其他东西处理?

在Apache中启用gzip压缩时,不会发送Content-Length?

我真的很感谢一些帮助理解这个Apache的行为。 我正在通过application / json中的iPhone Objective-C应用程序与PHP进行通信。 Gzip压缩在服务器上启用,并由客户端请求。 从我的.htaccess: AddOutputFilterByType DEFLATE text/html text/plain text/xml application/x-httpd-php application/json 对于小的请求,Apache正在设置“Content-Length”标题。 例如(这些值是从头中的Objective-C中输出的): Connection = "Keep-Alive"; "Content-Encoding" = gzip; "Content-Length" = 185; <————- "Content-Type" = "application/json"; Date = "Wed, 22 Sep 2010 12:20:27 GMT"; "Keep-Alive" = "timeout=3, max=149"; Server = Apache; Vary = "Accept-Encoding"; "X-Powered-By" = "PHP/5.2.13"; "X-Uncompressed-Content-Length" = 217; X-Uncompressed-Content-Length是我添加的一个头文件,设置为未压缩的JSONstring的大小。 正如你所看到的,这个请求非常小(217字节)。 […]

如何从一个tar文件中列出内容而无需recursion?

我有一个tar(gz,bzip)文件,并希望看到它的内容,但不能recursion。 这是:文件中的“第一级”。 我已经知道如何看内容: tar -ztf file.tar.gz 但它是recursion的! 谢谢!

我意外地压缩了我的整个服务器

好吧,如果有人想扮演上帝,创造我的神迹。 所以,我被赋予了一个脚本来发现超过6个月的文件,将它们压缩并删除。 在我制作这个脚本的路上,我跑了这个: find / -type f -mtime -400 ! -mtime -180 | xargs gzip blablabla 这给了每个单个文件一个.gz扩展名。 现在我一看到就立即解开了,但还是太迟了。 在命令完成后,我的bash命令都不会工作,因为$ PATHvariables清空了自己。 在意识到问题出现之前,我尝试了很多东西。 所以解压一切,我仍然无法启动。 我已经设法使其grub救援后至极我遵循网上说明: root (hd0,0) setup (hd0) kernel (hd0,0)/boot/vml[…] initrd (hd0,0)/boot/initrd.im[…] 至于我的Linux部分启动,但给我以下错误: Begin : Running /scripts/init-bottom … mount : mounting /dev on /root/dev failed : No such file or directory mount: mounting /sys/ on /root/sys […]

掠过.gz日志文件

是否有一个神奇的shellpipe道,可以很容易地通过一堆.gz日志文件grep而不需要提取他们的地方? .gz文件是Apache日志,日志轮转的结果。 我想快速检查过去访问某些URI的频率。

如何configurationnginx接受gzip请求?

我知道你可以使用nginx HttpGzipModule来gzip 响应 。 你可以使用它来启用nginx来处理gzip压缩的请求 ,即与请求头的Content-Encoding: gzip : Content-Encoding: gzip ? 注意:在mod_deflate的帮助下,Apache可以使用指令SetInputFilter DEFLATE来处理gzip压缩的请求。 有关 http://forum.nginx.org/read.php?11,96472,214266

bzip2太慢了。 多核或替代品

我正在运行这个命令: pg_dumpall | bzip2 > cluster-$(date –iso).sql.bz2 这需要太长时间。 我看着top的进程。 bzip2进程大约占95%,postgres占一个核心的5%。 wa入口很低。 这意味着磁盘不是瓶颈。 我能做些什么来提高性能? 也许让bzip2使用更多的核心。 这些服务器有16个内核。 或使用替代bzip2? 我能做些什么来提高性能?

如何通过.htaccess启用Gzip或Deflate压缩?

如何通过.htaccess启用Gzip或Deflate压缩,以及哪一个最好? 代码示例需要。

提取tar.gz的最快方法

有没有反正比tar -zxvf filenamehere提取tar.gz文件更快? 我们有大文件,并试图优化操作。