具体来说,我正在与IIS7,万一有平台的具体原因,但我一般好奇。 我知道gzip压缩对于服务器和客户端来说都是CPU密集型的,但是对于带宽较低的用户来说,这种折衷似乎是一个积极的变化,因为如此多的web内容是高度可压缩的(考虑到HTML,CSS和JS) 。
我试图通过gzip压缩将数据从一台MySQL服务器传输到另一台服务器。 我到目前为止是: mysqldump -u [user] -p[pwd] –no-create-db –no-create-info [db] [table] | gzip -c | mysql -h [host] -u [user] -p[pwd] 当然,这不起作用,因为压缩的数据正被导入到远程数据库。 如何在导入之前解压缩远程服务器上的数据?或者这不起作用,我需要使用SSH吗? 谢谢
我一直在很难从数据库服务器的大型数据库备份复制到另一个站点的testing框。 我愿意接受任何可以帮助我移动数据库的想法,而不必诉诸USB硬盘驱动器和邮件。 数据库服务器运行Windows Server 2003 R2 Enterprise,16 GB RAM和两个四核3.0 GHz Xeon X5450。 文件是100 GB到250 GB之间的SQL Server 2005备份文件。 pipe道不是最快的,SQL Server备份文件通常压缩到原来的10-40%,所以我首先压缩文件是有意义的。 我已经尝试了很多方法,包括: gzip 1.2.4(UnxUtils)和1.3.12(GnuWin) bzip2 1.0.1(UnxUtils)和1.0.5(Cygwin) WinRAR 3.90 7-Zip 4.65(7za.exe) 我试图使用WinRAR和7-Zip选项来分割成多个段。 7za.exe对于我在另一台服务器上进行数据库备份的工作非常有效,它有大约50GB的备份。 我也试着用各种实用程序先分割.BAK文件,并压缩生成的段。 没有这种方法的喜悦,不pipe我已经尝试过的工具,它最终会抵制文件的大小。 特别令人沮丧的是,我已经使用rsync + ssh在Unix上传输了类似大小的文件。 不幸的是,安装SSH服务器并不适合我所处的情况。 例如,这是7-Zip如何死亡: H:\dbatmp>7za.exe a -t7z -v250m -mx3 h:\dbatmp\zip\db-20100419_1228.7z h:\dbatmp\db-20100419_1228.bak 7-Zip (A) 4.65 Copyright (c) 1999-2009 Igor Pavlov 2009-02-03 Scanning Creating […]
是否有可能存储MySQL数据压缩? 在MySQL的选项?
嗯是的。 我不花费大量的时间在Linux命令行上,而不是制作一个networking目录的zip文件,我把网页目录中的所有内容都进行了压缩。 有什么愚蠢的做这个从web根轶事? sudo gunzip ../_downloads/ecpt ./* 我真的需要尽快解决这个问题。
gzip或gzip -9是否值得执行压缩需要额外的时间? 它是否产生了显着的节约? 关于从dd到gzip的pipe道数据的有效性,真的很less。 (有些数据压缩不好,是可压缩磁盘的数据stream?
我有一个名为php.log的8GB文件,并运行一个正在运行的php脚本。 logging每个事件对我来说很重要,我想压缩它并清空当前文件而不停止Web服务器。 如果我跑 mv php.log php.log.backup20140305-01 touch php.log 我会失去一些数据。 我怎么能做到这一点,而不会丢失任何数据?
所以我在一个新的Slicehost Ubuntu 9.10 slice上安装并configuration了Nginx 0.7.62。 所有似乎都与服务器正常工作,除了gzip由于某种原因没有工作。 我确信它的设置在/etc/nginx/nginx.conf中是正确的: user www-data; worker_processes 3; error_log /var/log/nginx/error.log; pid /var/run/nginx.pid; events { worker_connections 1024; # multi_accept on; } http { include /etc/nginx/mime.types; access_log /var/log/nginx/access.log; sendfile on; #tcp_nopush on; keepalive_timeout 2; tcp_nodelay on; gzip on; gzip_comp_level 2; gzip_proxied any; gzip_types text/plain text/css application/x-javascript; gzip_disable "MSIE [1-6]\."; include /etc/nginx/conf.d/*.conf; include /etc/nginx/sites-enabled/*; } […]
在将服务器发送给用户(我使用Nginx)之前,先让服务器将gzip文件压缩,这只是一个很好的常识。有没有办法将服务器保存一些开销,并将这些文件预先压缩为服务器,如果不是这样,为什么呢? 例如,而不是给服务器一个myscript.js并让服务器压缩文件并将其发送给用户,有没有办法创buildmyscript.js.zip所以服务器不必?
我有2个gz文件,我需要合并成一个 – 也就是说,我想将两个.gz文件合并为一个,这样当我提取组合文件时,我会得到一个包含原始input文件串联的文件。 time join <(zcat r_TR2_2012-05-28-08-10-00.gz) <(zcat r_TR1_2012-05-28-08-10-00.gz) 上述声明不能按预期工作。 我使用3个命令来做必要的事情。 gunzip r_TR2_2012-05-28-08-10-00.gz gunzip r_TR1_2012-05-28-08-10-00.gz tar -zcvf combined.tar.gz r_TR1_2012-05-28-08-10-00 r_TR2_2012-05-28-08-10-00 然后将这些文件连接起来,当我提取它们来产生我想要的输出。 有没有办法在1声明中做到这一点?