我的nginxconfiguration在这里: http : //p.ngx.cc/0c 这个链接http://aa-tour.ru/static/system/css/style.css显示我旧的caching版本的文件,如何删除它并清除caching? 这是正确的(新)版本的文件http://aa-tour.ru/static/system/css/style.css?v=1 这只是静态文件。 我更新了它(添加了一些类contact-form , contact-form-button )…
我们在使用Nginx + MySQL + PHP-FPM(以及WordPress作为CMS)的大多数服务器上遇到问题:浏览器不显示我们网页的最新版本。 我会这样解释: 首页显示罚款第一次我们的访问者加载它。 我们添加新的文章和内容,并从Wordpress发布。 当用户再次加载房屋时,他看到的是与之前看到的完全相同的页面,没有改变。 他必须重新加载主页(Ctrl + F5,Command + r)才能看到家中的新文章和内容。 但是在我们的一台服务器中,更糟糕的是,有些用户必须在浏览器上清理caching(例如Internet Explorer,显示出严重的问题),然后他们才能看到新的文章最终发布。 当用户在post上添加新评论时也会发生同样的情况:除非他刷新网页,否则不会显示该评论。 一切似乎caching,但我不知道为什么。 我在这些博客上没有在wordpress中使用任何caching插件,所以这可能发生的唯一原因是在Nginx中configuration不当。 根据要求,这里有两个“重要”文件: /etc/nginx/nginx.conf user www-data; worker_processes 4; error_log /var/log/nginx/error.log; pid /var/run/nginx.pid; events { worker_connections 4096; use epoll; multi_accept on; accept_mutex_delay 50ms; } http { include /etc/nginx/mime.types; access_log /var/log/nginx/access.log; sendfile on; #tcp_nopush on; #keepalive_timeout 0; keepalive_timeout 65; tcp_nodelay […]
假设我们有一个简单的index.php文件: <?php inclde('file1.php'); inclde('file2.php'); inclde('file3.php'); 据推测,这将最终导致另外三个单独的I / O请求到磁盘上,当index.php文件被提供之上。 现在,假设这个文件被放置在一个网站上并经常请求。 如果这些文件以某种方式caching在内存中,而不是每次有人访问该网站时发出I / O请求,这都是有意义的。 问题: Apache的httpdcachingindex.php吗? 那么3个include()操作呢? PHP是否通过Apache从OS请求文件? 使用哪种mpm模型有没有关系? nginx,lighttpd或任何其他networking服务器做caching吗? 这是否也取决于操作系统文件系统? 即Linux操作系统通常会caching经常访问的文件? 还是有一个更低级别的caching? 还是PHP或任何其他服务器应用程序引擎以某种方式caching文件和I / O请求永远不会到OS? 由于磁盘I / O通常是最大的瓶颈,因此了解如何通过Web服务器在各个级别caching文件可以帮助调整性能,甚至是应用程序开发,例如可能连接短的应用程序文件而不是多个包括帮助性能。 感谢您的帮助!
在Linux服务器上,您如何查明DNScaching到期时间? 谢谢
我相信你已经注意到,对于许多服务器来说,如果你是第一个访问者几个小时,那么网站的加载时间是相当长的。 你知道这是为什么吗?(它只是服务器caching?),以及如何使该网站快速即使是第一个访问者? 在这种情况下,我们来设置一个正常的LAMP。 谢谢你的帮助!
我已经在ubuntu中设置了一个nginx服务器作为反向代理caching服务器。我的应用程序代码驻留在/ var / www / myapp文件夹中。 以下是我给出的configuration server { listen 80; ## listen for ipv4; this line is default and implied root /var/www/; index index.html index.htm; # Make site accessible from http://localhost/ server_name localhost; location / { proxy_pass http://127.0.0.1:8080/; rewrite ^([^.]*[^/])$ $1/ permanent; add_header X-Cache-Status $upstream_cache_status; } location /doc/ { alias /usr/share/doc/; autoindex on; allow […]
我有一个CentOS专用的大约16个网站,而且我在高通话时间上遇到了一些问题,这似乎是一个高磁盘I / O活动,导致一般的放缓。 我已经安装在顶部,这是我看到的底部(服务器已经重新启动,这就是为什么值是如此之低): *** system and process activity since boot *** PID RDDSK WRDSK WCANCL DSK CMD 1/18 2176 1.7G 7.3G 854.4M 39 mysqld 671 1248K 3.0G 0K 13 flush-8:0 566 0K 1.1G 0K 5 jbd2/sda2-8 2401 124.2M 529.1M 22408K 3 crond 2032 2.2G 502.0M 0K 12 nginx 2360 425.8M 115.3M 4188K 2 httpd […]
现在,我有一个坐在Tomcat前面的Apache设置来处理caching。 这个设置已经被赋予了一个外部服务来pipe理,而且从转换开始,我注意到了奇怪的行为。 具体来说,当我从Web服务器请求一个SWF文件,我打了Apachecaching(好),但偶尔我会收到一个截断的文件。 一旦我收到这个截断的文件,caching不会刷新,直到我手动删除caching,并让swf再次从tomcat下拉。 外部服务声称configuration是好的,但我不认为这可能会发生除了不正确的configuration之外的任何方式。 现在,在负载平衡器下有两个apache和两个tomcat服务器,有时候一个apachecaching将会中断,而另一个则不会(导致所有请求的50%变坏,被截断的数据)。 我应该从哪里开始debugging这个问题? 什么可能导致这种奇怪的行为? 编辑:检查日志,tomcat抛出这个: java.io.IOException: Bad file number at java.io.FileInputStream.readBytes(Native Method) at java.io.FileInputStream.read(FileInputStream.java:199) at java.io.BufferedInputStream.read1(BufferedInputStream.java:256) at java.io.BufferedInputStream.read(BufferedInputStream.java:317) at java.io.FilterInputStream.read(FilterInputStream.java:90) at org.apache.catalina.servlets.DefaultServlet.copyRange(DefaultServlet.java:1968) at org.apache.catalina.servlets.DefaultServlet.copy(DefaultServlet.java:1714) at org.apache.catalina.servlets.DefaultServlet.serveResource(DefaultServlet.java:809) at org.apache.catalina.servlets.DefaultServlet.doGet(DefaultServlet.java:325) at javax.servlet.http.HttpServlet.service(HttpServlet.java:690) at javax.servlet.http.HttpServlet.service(HttpServlet.java:803) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:290) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:206) at org.apache.catalina.core.StandardWrapperValve.invoke(StandardWrapperValve.java:233) at org.apache.catalina.core.StandardContextValve.invoke(StandardContextValve.java:175) at org.apache.catalina.core.StandardHostValve.invoke(StandardHostValve.java:128) at org.apache.catalina.valves.ErrorReportValve.invoke(ErrorReportValve.java:102) at org.apache.catalina.valves.AccessLogValve.invoke(AccessLogValve.java:568) at org.apache.catalina.core.StandardEngineValve.invoke(StandardEngineValve.java:109) at org.apache.catalina.ha.session.JvmRouteBinderValve.invoke(JvmRouteBinderValve.java:209) at […]
赦免如果这是更多的stackoverflow与serverfault。 这似乎是在边界上。 我们有一个应用程序,用于caching使用ASP.NETcaching的电子商务应用程序的大量产品数据。 这是一个包含65K元素的字典对象,我们的计算将对象的大小设置为〜10GB。 问题: 对象消耗的内存量似乎远远超过了我们的10GB计算。 最大的关注:我们似乎无法使用服务器中超过60%的32GB。 我们到目前为止的尝试: 在machine.config / system.web(sf不允许标签,请原谅格式): processModel autoConfig="true" memoryLimit="80" 在web.config / system.web / caching / cache(sf不允许标签,请原谅格式): privateBytesLimit = "20000000000" (and 0, the default of course) percentagePhysicalMemoryUsedLimit = "90" 环境: Windows 2008R2 x64 32GB内存IIS7 似乎没有什么可以让我们超过60%的价值。
我原本是以超级用户的身份提出这个问题的,但是对我来说这更像是一个服务器主题。 我刚刚买了一个16G内存的6核Phenom。 我主要用它来编译和video编码(和偶尔的web / db)。 我发现所有的活动都是磁盘绑定的,而我无法保留所有的6个内核。 我正在购买一个SSD RAID来坐在硬盘和tmpfs之间。 我想设置一个“分层”的文件系统,读取caching在tmpfs上,但安全写入到SSD。 我想要在SSD上最近没有被读取的文件(或块),然后使用压缩的FS或块层写回到HDD。 所以基本上读取: – 检查tmpfs – 检查SSD – 检查HD 并写道: – 直接SSD(安全),然后tmpfs(速度) 并定期或空间不足时: – 将最不频繁访问的文件向下移动一层。 我见过一些有趣的项目。 CacheFS,cachefsd,bcache看起来非常接近,但是我很难确定哪一个是实用的。 bcache似乎有点冒险(早期采用),cachefs似乎与特定的networking文件系统绑定在一起。 有“联盟”项目unionfs和aufs,让你挂在彼此的文件系统(通常在DVD上的USB设备),但都作为补丁分发,我觉得这种“透明”安装将成为一个内核function而不是FS。 我知道内核有一个内置的磁盘caching,但它似乎不适合编译。 当我将源文件移动到tmpfs时,速度提高了20倍。 我认为这是因为标准缓冲区专用于一个特定的进程,编译创build并在构build过程中破坏成千上万的进程(只是在那里猜测)。 看起来我真的想要这些文件预先。 我读过tmpfs可以使用虚拟内存。 在这种情况下,在SSD上创build一个带有swap的巨大tmpfs是否可行? 我不需要从生成的分层文件系统启动。 我可以从别处加载grub,kernel和initrd,如果需要的话。 我倾向于使用ZFS与l2arc和zil上的固态硬盘和zfs压缩和物理硬盘驱动器上的重复数据删除。 所以这是背景。 这个问题有几个组成部分我猜: * Recommended FS and/or block layer for the SSD and compressed HDD. * Recommended mkfs parameters (block […]