由于今天我的networking服务器(VPS上的nginx + php-fpm + mysql)非常慢。 htop说: 1 [|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||100.0%] Tasks: 63 total, 13 running 2 [|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||100.0%] Load average: 11.67 10.95 6.95 3 [|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||100.0%] Uptime: 00:18:40 4 [|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||100.0%] 5 [|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||100.0%] 6 [|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||100.0%] Mem[||||||||||| 137/1280MB] Swp[ 0/0MB] PID USER PRI NI VIRT RES SHR S CPU% MEM% TIME+ Command 6802 www 20 0 76232 12320 5716 R 27.0 […]
我正在使用Arch Linux服务器在Amazon Ec2上。 虽然我真的很喜欢它,但我却遇到了让nginx显示任何东西的问题。 每当我尝试把我的主机名放入浏览器时,浏览器就会指出由于某种原因它不可用,就好像主机不存在一样。 有一件事我想知道的是,我怎样才能把它启动和运行? 有没有一个特定的Linux的Linuxconfiguration,我必须做的,使其networking可访问? 我有端口80打开,以及端口22.我已经尝试使用gunicorn,python-flup和nginx。 Nginxconfiguration user http; worker_processes 1; #error_log logs/error.log; #error_log logs/error.log notice; #error_log logs/error.log info; pid logs/nginx.pid; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; log_format main '$remote_addr – $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; access_log logs/access.log main; sendfile on; #tcp_nopush on; […]
经过2天的search/尝试/失败,我决定在这里发布,我还没有find任何人做同样的事情,也没有发现我试过的东西好像工作正常。 我试图发送一个403的机器人不尊重robots.txt文件(即使下载了几次)。 特别是Googlebot。 它将支持以下robots.txt定义。 User-agent: * Disallow: /*/*/page/ 其目的是允许Google浏览他们在网站上可以find的任何内容,但是返回一个403作为以下types的请求。 Googlebot似乎继续嵌套这些链接,在块之后添加分页块: my_domain.com:80 – 66.x.67.x – – [25/Apr/2012:11:13:54 +0200] "GET /2011/06/ page/3/?/page/2//page/3//page/2//page/3//page/2//page/2//page/4//page/4//pag e/1/&wpmp_switcher=desktop HTTP/1.1" 403 135 "-" "Mozilla/5.0 (compatible; G ooglebot/2.1; +http://www.google.com/bot.html)" 这是一个WordPress的网站顺便说一句。 我不希望这些页面出现,即使在robots.txt信息通过后,他们停了一会儿,才稍后再开始爬行。 它只是永远不会停止….我真的希望真实的人看到这一点。 正如你所看到的,谷歌得到一个403,但是当我在浏览器中自己尝试这个我得到一个404回。 我想让浏览器通过。 root@my_domain:# nginx -V nginx version: nginx/1.2.0 我尝试了不同的方法,使用地图和普通的旧nono如果和他们都是相同的:(在http部分下) 映射$ http_user_agent $ is_bot { 默认为0; 〜爬行| Googlebot | Slurp |蜘蛛| bingbot |跟踪| […]
是否有一个与Nginx的设置,可以限制或限制我的用户的下载速度? 我的用户在300kb / s左右如果我使用下载加速器并同时下载一个文件,我最多可以以1.2 mb / s的速度上网。 我的结论是,不知何故nginx是限制我的下载速度。 我的网站没有stream量,所以我不知道为什么我的速度如此之慢。 任何想法可能会导致下载缓慢? http { include /etc/nginx/mime.types; default_type application/octet-stream; client_max_body_size 64M; access_log off; sendfile on; tcp_nopush on; keepalive_timeout 5; server_tokens off; gzip on; gzip_comp_level 5; gzip_proxied any; gzip_min_length 1280; gzip_buffers 4 8k; gzip_types text/plain text/css application/x-javascript text/xml application/xml application/xml+rss text/javascript; # Load config files from the /etc/nginx/conf.d directory […]
我有一个后台服务器写在Node.js当前作为一个SSL服务器。 我有nginx设置为反向代理到这个后端,它也有SSL支持。 我打算有多个前端访问相同的后端,而前端本身可能会使用不同的SSL证书。 如果nginx用户使用不同的SSL证书与后端相比,这是否重要? 后端是否需要使用SSL?
服务器1(Proxy) – > Server2 / Server3(Apache) – > Server4(mySQL) 对于服务器1,我会设置HARproxy类似的东西? global log 127.0.0.1 local0 log 127.0.0.1 local1 notice #log loghost local0 info maxconn 4096 #debug #quiet user haproxy group haproxy defaults log global mode http option httplog option dontlognull retries 3 redispatch maxconn 2000 contimeout 5000 clitimeout 50000 srvtimeout 50000 listen webfarm 192.168.0.99:80 mode http […]
我打算把我的网站(drupal 6.25)从apache切换到nginx。 我已经为nginx准备了一切,并在端口81上进行了testing。它工作正常。 现在我改变了听从81到80,并停止Apache,并启动Nginx。 网站开始给予 504网关超时 nginx的/ 0.8.54 并没有提供任何服务:(我的nginx服务器是 服务器{ 听80积分= 128; root / var / www / web1 / htdocs; index index.php index.html index.htm; server_name www.example.com; 位置 / { 如果(!-e $ request_filename){ 重写^ /(。*)$ /index.php?q=$1 last; } } access_log /var/log/nginx.web1.log; error_log /var/log/nginx.web1.error.log错误; 位置〜* ^。+ \。(jpg | jpeg | gif | css | png | […]
我使用ngx_http_proxy_module和proxy_ignore_client_abort来caching文件。 所以当客户端closures连接时,nginx会继续将文件从后端复制到当前服务器。 但是当另一个用户试图获得这个文件(这个文件仍然在复制)时,nginx会去后端去获取文件的新副本,并且也会尝试caching它。 我可以使用proxy_cache_lock来阻止它。 但这是个坏主意,因为文件可能非常大,文件将被caching的时候会花费很多时间。 我怎么能告诉nginx读这个临时文件,而不是等到文件被caching?
我正在尝试使用SSLencryption我的网站。 我创build了一个自签名证书(在此期间),并试图将其集成到我的nginx服务器中。 我把证书放在主要的nginx.conf文件中,因为我有多个域(dev和beta)。 # SSL ssl_certificate /srv/ssl/nginx.pem; ssl_certificate_key /srv/ssl/nginx.key; ssl_session_cache shared:SSL:10m; ssl_session_timeout 10m; 在server块中,我有以下几点: +server { + listen 80; + server_name dev.DOMAIN.com; + + location / { + rewrite ^ https://$server_name$request_uri permanent; + } +} server { + listen 443 ssl; server_name dev.DOMAIN.com; access_log /var/www/dev/logs/access.log; error_log /var/www/dev/logs/error.log; root /var/www/dev/public_html; + keepalive_timeout 70; location / { […]
我试图为nginx中相对不同的使用场景和资源消耗configuration两个URLpath组。 两者都由相同的uwsgi应用程序服务。 第1组:常规HTML页面大小为128k,默认为cca 第2组:大型XML“文件”,大小可达多MB(由应用程序即时创build) 这个要求是要被压缩,并且XML也应该被caching1个小时。 我不太明白的是缓冲区数量的含义,以及如何根据预期的stream量和内容大小来优化设置它们的数量和大小,无论是uwsgi还是gzip。 另外,对于下面的configuration,我从nginx得到错误: "uwsgi_busy_buffers_size" must be less than the size of all "uwsgi_buffers" minus one buffer in /etc/nginx/nginx.conf:113 uwsgi_busy_buffers_size似乎没有logging。 location ~ /path/to/(.+)\.xml { uwsgi_hide_header "Set-Cookie"; uwsgi_ignore_headers "Set-Cookie"; uwsgi_buffers 2 8M; uwsgi_cache xmlfiles; uwsgi_cache_key $request_uri; uwsgi_cache_valid 200 1h; uwsgi_cache_valid 04 5m; uwsgi_cache_use_stale error; expires +1h; gzip on; gzip_types application/xml; gzip_buffers 2 8M; […]