我想在Amazon S3上存储大量图像(通过Cloudfront提供服务)。 目前我所做的只是简单地将图像转储并将基本的HTTP Cache标头设置为一个月,以便用户可以拥有快速的浏览体验。 但我仍然想要更快的体验。 无论如何,我可以压缩我的图像(如文本的gzip),用户可以访问浏览器上的图像资源。
我想压缩一个文件夹,所以我可以FTP它到我的Web服务器。 我在osx雪豹上压缩,并在Ubuntu 8.04上解压缩 这是我正在运行的两个命令 sudo git archive master | gzip > v-1.25.gz sudo gunzip v1.25.gz 当我在本地机器上解压缩时,它工作正常,但在服务器上的输出是一个文件而不是目录 我究竟做错了什么?
我有一个脚本,每30分钟运行一次cronjob,并使用一些表的mysqldump。 转储文件存储在/ var / log / as中 /var/log/mysqldump/dbname/tablename/2014-06-15-18-30-dbname-tablename.sql /var/log/mysqldump/dbname2/tablename2/2014-06-15-19-00-dbname2-tablename2.sql 我使用logrotate进行文件旋转,configuration文件具有以下结构: /var/log/mysqldump/dbname/tablename/*.sql { daily rotate 30 compress nocreate } 现在我的问题是,尽pipelogrotate工作正常,但它的gzip文件的末尾附加“1”或“2”,例如这是我有 /var/log/mysqldump/dbname2/tablename2/2014-06-15-19-30-dbname2-tablename2.sql.1.gz /var/log/mysqldump/dbname1/tablename1/2014-06-15-19-00-dbname1-tablename1.sql.2.gz 我从脚本内执行logrotate logrotate -f /path/to/mysqldump-logrotate.conf 我在这里做错了什么?
我的Apache 2.2 web服务器上configuration了mod_deflate 。 但我的回应标题显示gzip作为Content-Encoding而不是deflate : HTTP/1.1 200 OK Date: Mon, 26 Sep 2011 22:26:11 GMT Server: Apache Last-Modified: Mon, 26 Sep 2011 11:32:54 GMT Accept-Ranges: bytes X-Powered-By: Servlet/2.5 JSP/2.1 Vary: Accept-Encoding,User-Agent Content-Encoding: gzip Age: 36 Content-Length: 144338 Keep-Alive: timeout=15 Connection: Keep-Alive Content-Type: text/html; charset=UTF-8 注意这一行: Content-Encoding: gzip 这是正常的吗?
通过遵循一些有用的博客post,我已经configurationIIS来gzip我的静态文件。 我甚至启用了失败的请求跟踪,并过滤到200状态代码,我可以看到成功的压缩事件发生以及完成的标题,看起来像这样: Headers="Content-Type: text/css Content-Encoding: gzip Last-Modified: Mon, 04 Oct 2010 17:35:08 GMT Accept-Ranges: bytes ETag: "02ef37cea63cb1:0" Vary: Accept-Encoding Server: Microsoft-IIS/7.5 X-Powered-By: ASP.NET " 但是,当我在Fiddler和Firefox中testing时, Content-Encoding标题丢失,并且文件没有被压缩。 这是一个类似的问题, 这个问题从来没有解决。 IIS正在生成gzip文件,我可以在C:\ inetpub \ temp \ IIS Temporary Compressed Files中看到。 有谁知道我可以如何解决这个问题?
我遇到麻烦通过SSL启用gzip通过ssl服务大(376kb)JavaScript文件。 该文件服务没有问题在普通的旧的http。 有问题的文件是ckeditor.js,位于https://www.myleadconverter.com/js/lib/ckeditor/ckeditor.js 我search了周围,我发现了所有关于gzip_buffers的信息。 我发现的一切似乎都链接回http://blog.leetsoft.com/2007/07/25/nginx-gzip-ssl.html 来自我的nginx.conf的相关位: gzip on; gzip_comp_level 5; gzip_proxied any; gzip_buffers 16 8k; gzip_types text/plain text/css application/x-javascript text/xml application/xml application/xml+rss text/javascript; gzip_disable "MSIE [1-6]\.(?!.*SV1)"; gzip_vary on; 目前,下载停止在105kb,但应该是119kb压缩(这个信息是从铬开发工具)。 如果我使用wget并提供accept-encoding头文件,它将最终加载,但是只有在几次重新开始下载之后: mac2:Desktop andrewmullins$ wget -S –header="accept-encoding: gzip" https://www.myleadconverter.com/js/lib/ckeditor/ckeditor.js –2013-02-26 00:30:04– https://www.myleadconverter.com/js/lib/ckeditor/ckeditor.js Resolving www.myleadconverter.com… 184.106.67.181 Connecting to www.myleadconverter.com|184.106.67.181|:443… connected. HTTP request sent, awaiting response… HTTP/1.1 200 OK […]
我正在使用CloudFront与Cherokee原始服务器的静态文件。 切诺基服务gzip内容直接浏览器请求没有任何问题。 但是,当CloudFront请求内容时,Cherokee会将其解压缩,因为CloudFront使用HTTP / 1.0(但具有Accept-Encoding:gzip)进行请求。 有没有一种方法可以强制在切诺基的HTTP / 1.0请求的gzip压缩? 由于这个问题,我的CloudFront成本几乎翻了一番。 ngnix存在类似的问题,但可以通过修改configuration来解决: http ://www.cdnplanet.com/blog/gzip-nginx-cloudfront/
我有一个用gzip_static模块构build的nginx实例 nginx version: nginx/1.2.6 built by gcc 3.4.6 20060404 (Red Hat 3.4.6-11) TLS SNI support disabled configure arguments: –prefix=/home/nginx –user=nginx –group=nginx –without-http_autoindex_module –without-http_empty_gif_module –without-http_scgi_module –with-http_ssl_module –with-http_gzip_static_module –with-pcre=./library/pcre-8.32/ –with-zlib=./library/zlib-1.2.7/ 我的configuration文件有选项打开: http { include mime.types; default_type application/octet-stream; gzip off; gzip_static on; gzip_vary on; server { listen 8080; server_name localhost; location / { root html; index index.html index.htm; […]
我使用cronolog让apache日志文件旋转。 我正在使用fail2ban监视这些日志文件,并禁止滥用。 总是有一个由cronolog创build并指向当前日志文件的access.log符号链接。 每天晚上,我运行一个cron来压缩昨天的日志文件: find /var/log/apache2/ -daystart -mtime +0 \( -name "*access*.log" -or -name "*error*.log" \) -type f -exec gzip {} \; 问题是,对于stream量低的网站, access.log符号链接现在已经死了,因为它指向的文件已经被gzip重命名了。 结果是fail2ban放弃了那些监狱,因为它不能再统计文件了。 解决方法是只压缩没有符号链接指向的日志文件。 我发现自己是这样做的一种方式,它的工作,但我想知道是否有一个更简单的方法来做,因为这是一个非常复杂,并不是很快( find一个find )。 find /var/log/apache2/ -daystart -mtime +0 \( -name "*access*.log" -or -name "*error*.log" \) -type f -exec sh -c 'test `find /var/log/apache2/ -lname {} | wc -l` -eq […]
我最近尝试使用gzip压缩来改善Web UI性能。 我如下configuration了Tomcat连接器。 compression="on" compressionMinSize="2048" noCompressionUserAgents="gozilla, traviata" compressableMimeType="text/html,text/xml,text/css,text/javascript,text/json,application/x-javascript,application/javascript,application/json" 下面是RequestHeader – Accept-Encoding是gzip,deflate。 Key Value Request GET /app/jquery-ui.min.js HTTP/1.1 Accept */* Referer https://cdduat.app.com/Apptech/ Accept-Language en-US User-Agent Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; Trident/7.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; InfoPath.3) Accept-Encoding gzip, deflate Host cdduat.app.com Connection […]