Articles of gzip

nginx + php-fpm + apc …压缩?

我有一个VPS运行nginx 1.1.19,php-fpm 5.3.10和APC 3.1.9。 服务器主要运行PHP脚本(vB,SMF,IPB)。我也使用Cloudflare作为CDN。 据我所知,有3个压缩选项,我不确定哪个是相互冗余的,或者它们是什么,哪个服务应该处理。 nginix有gzip,php-fpm有zlib,PHP脚本本身有gzip。 我觉得我已经在很多文档中看到,如果一个web服务器(nginx)正在处理gzip,PHP脚本不应该这样做。 应该在php-fpm zlib与gzip一起启用还是在技术上是一样的东西? 我看到一个源代码说zzib /压缩的gzip / mod_deflate是多余的,不必要地使用CPU周期,但是当zlib和gzip都启用时,我的vB安装似乎运行更顺畅。 有没有人知道这种设置最有效的压缩组合/安排?

确定gzip文件的压缩率?

有没有简单的方法来确定一个.gz文件的压缩%?

Nginx检查HttpGzipModule

我有我的VPS nginx +乘客,但我想我没有安装HttpGzipModule,有两个问题: 如何validation是否安装? 如何安装,我要再次安装nginx吗? 有没有一个新手遵循的程序?

Linux查找和Zip文件

使用我的日志和find命令时遇到了两个问题。 我遇到了mtime选项的问题。 下面的第一条命令显示了从3月5日到3月7日的几个文件,就像我想的那样。 但是,当我将+1加到mtime而不是+0时,它只会在运行命令时执行当前目录中的ls。 只是在/ home / user /下监听我的目录。 不知道为什么+1打破它。 sudo find /logs/ -type f -name '*.log' -mtime +0 | xargs ls -l 我遇到的第二个问题是我想查找所有date超过1天的日志,并单独压缩它们。 所以如果我的find命令find1-1-13.log,1-2-13.log和1-3-13.log,我希望每一个都变成log.gz. 我通过执行以下命令尝试了这一点,但它不工作。 我想我可能不得不为此做一个小小的bash脚本,但希望能够通过一个简单的命令来完成。 sudo find / logs / -type f -name'* .log'-mtime +0 | xargs gzip -9 * 我见过的大多数例子都涉及将所有文件压缩成1个压缩文件,但是我希望每个文件都是独立的,我希望它们保持在find它们的相同位置。 提前致谢。

如何从gzip压缩文件中回显行?

将mysqldump导入Galera集群时,会引用错误消息,引用重复的错误。 为了检查源表,如何回显这条线? import: zcat DB_150909.sql.gz | mysql -u root -p test 我得到这个错误: ERROR 1062 (23000) at line 2412: Duplicate entry '329610-2011-03-27 03:00:00' for key 'user_id'

从Linux服务器压缩和stream文件

我有一个Linux服务器有很多未使用的文件,但它的磁盘空间不足。 我想在删除文件之前先取得这些文件的副本。 下载前没有足够的磁盘空间来存储压缩版本。 我试过scp -C hostname:/path . 这是压缩stream文件,但有很多小文件需要很长时间才能复制下来。 另一个线程提示了一个类似于ssh 10.0.0.4 "cat /tmp/backup.sql | gzip -c1" | gunzip -c > backup.sql的命令ssh 10.0.0.4 "cat /tmp/backup.sql | gzip -c1" | gunzip -c > backup.sql ssh 10.0.0.4 "cat /tmp/backup.sql | gzip -c1" | gunzip -c > backup.sql但只适用于一个文件。 还有其他方法可以实现吗?

gzippipe道输出到ssh命令中

我通过ssh做这样的备份: mysqldump -u dbuser -pXXXXXXXX dbname | ssh -i ~/.ssh/id_rsa_backup [email protected] 'cat > /var/backups/services/my_service/db/$(date +"%Y-%m-%d").sql' 如何发送gziped数据来保存带宽和磁盘空间?

有没有这样的东西,解压缩caching?

在我的服务器上,我有每个午夜运行的脚本(使用cronjob),并下载一个包含来自url的csv文件的zip文件。 csv文件每天更新​​。 以下是我的(简单)脚本: #!/usr/bin/env bash rm -f /home/croaz/public_html/tmp/flatfile_rom_air.* wget –no-cache –user user_name –password password http://www.url.com/DownloadArea/ROM/flatfile_rom_air.zip -P /home/croaz/public_html/tmp/ && unzip flatfile_rom_air.zip -d /home/croaz/public_html/tmp/ 但是,我得到一个非常奇怪的行为。 当压缩包中包含更新的csv文件时,解压缩(csv)文件与第一次运行脚本(几个月前的几个脚本)时相同。 它的行为像解压缩将使用一些csv文件的caching副本。 如果我从我的本地PC上的服务器上下载zip压缩文件,并在那里解压缩,那么所有东西都可以正常工作(我得到更新后的文件)。 我错过了什么?

如何在Windows计算机上分割一个大的.tar.gz以在Linux服务器上进行上传?

一个星期前,我从一台云Linux服务器上下载了一个相当大的(6GB)备份文件,然后下载到我的Windows笔记本电脑上。 刚刚我们自己创build了一个新的云服务器,并决定在该服务器上重新部署该站点。 现在,我们是一家小公司,使用高端,但最终消费级互联网连接,虽然下载速度相当不错,但缺乏上传。 我计划在一两个星期内上传文件,我想知道是否有一个工具,可以将这个文件分割成多个段,所以我可以上传(使用FTP)在相对较小的部分。 在谷歌和这个网站上search失败了我,并主要指向在Linux服务器上拆分它的指示。 虽然这一切都很好,但我们没有内部的Linux服务器。 事实之后,如何重新join他们的链接的奖金点。

在MySQL gzip备份期间使用内存

您好在EC2服务器上我正在使用以下来从另一台服务器gzip SQL: mysqldump -h $HOST -u $UNAME -p$PWORD –single-transaction $1 | gzip -5 > $2_`date +%d`.sql.gz 目前SQL数据是560 Mb,这里是来自“免费”的信息: total used free shared buffers cached Mem: 2049568 1731356 318212 360 144328 529472 -/+ buffers/cache: 1057556 992012 Swap: 0 0 0 我想知道如果我有1 Gb或2 Gb的SQL数据会如何工作? 它是否在接收数据时使用gzip来最大限度地减lessRAM的使用? 还是先得到整个SQL数据然后gzip呢?