我不明白如何与caching反向代理工程。 我们假设caching是空的。 User1加载index.php(dynamic内容)。 没有caching,所以Nginx查询php文件。 服务器说“欢迎用户1”。 Nginx使用md5校验和存储网页。 User2加载index.php。 有一个页面存储在caching中,所以我们把这个页面返回给用户。 它说“欢迎用户1”,但如果我们已经调用了PHP脚本,它将返回“欢迎用户2”。 Nginx怎么知道是否再次调用php脚本? 我的caching的反向代理很好,返回dynamic内容,但我想这不只是“魔术”。 这是PHP脚本返回一个头告诉Nginx不caching?
我们正在使用capistrano来部署我们的PHP应用程序。 并在生产服务器上启用了php-apc,apc.stat = 0.在capistranoconfiguration中,有一个规则可以在部署后清除apccaching:update: after "deploy:update", "clear_apc_cache" caching成功清除:apc.php'查看主机统计'显示0分钟的正常运行时间,caching的文件数量和命中接近0(不是0,因为有相当多的stream量和一些文件caching之前,我们可以检查apc.php) 问题是,有时旧文件仍然被caching在apc中。 我认为这是由于在capistrano更新“当前”符号链接之前启动的HTTP请求,在我们清除apccaching后结束。 在这种情况下,在这个请求中apc清除之后包含的文件仍然来自旧的修订文件夹(我们在include中使用相对path并且需要 s)并保存在apccaching中 有没有办法来永久解决这个问题? 没有更新所有包括和要求 ? 现在我会尽量延迟“clear_apc_cache”一两秒钟,但是恐怕在延迟期间会引起别人的问题(有些请求还可能超过2秒)
我们正面临devise“挑战”,我们需要build立具有以下属性的存储解决scheme: 我们需要的 哈 一个可扩展的存储后端 在客户端的离线/断开操作来解决networking中断 跨平台访问 从肯定的Windows(可能是XP向上),可能是Linux的客户端访问 后端集成了AD / LDAP(权限pipe理(用户/组pipe理,…)) 应该通过慢速WAN链路合理地工作 另一个问题是,我们并不真正了解所有可能的用例,如果人们需要能够并发访问共享文件,或者他们只能访问自己的文件,那么可能的解决scheme需要考虑并发访问从用户的angular度来看,冲突pipe理将如何看待这种情况。 这两年的博客文章总结了我在过去几天的研究中得到的印象,有很多目前的übercool项目实施(非Windows)群集PBaby blob存储解决scheme,但有没有一个支持断开连接的操作很好,本地化,但我希望我们已经错过了一个明显的解决scheme。 我们已经尝试过了 的OpenAFS 我们认为我们需要一个带有本地caching的分布式networking文件系统,并testing了一个星期的OpenAFS(作为目前唯一支持断开操作的“稳定的”DFS,似乎是一条路),但是有几个问题: 这是一个真正的痛苦设置 没有官方的RHEL / CentOS软件包 elrepo目前的稳定版本1.6.5.1的包随机在新鲜的安装上发生恐慌,这是绝对不行的 Windows支持(包括所需的Kerberos包)是神秘的。 1.6分支的当前客户端不能在Windows 8上运行,1.7是当前的客户端,但它只是随机崩溃。 之后,我们甚至没有对XP和Windows 7进行testing。只能说,我们无法正常工作,整个设置如此不稳定和复杂,以至于不能用于生产。 桑巴+联合 由于OpenAFS是一个完整的灾难,并没有其他的DFS似乎支持断开连接的操作,我们去了一个更简单的想法,使用Unison将文件同步到Samba服务器。 这具有以下优点: 桑巴集成了AD; 这是一个痛苦,但可以做到。 Samba解决了从Windows远程访问存储的问题,但引入了另一个SPOF,并没有解决实际的存储问题。 我们可以将Samba下的任何集群FS捆绑在一起,但这意味着我们需要一个HA Samba安装来维护高可用性,这可能会增加很多额外的复杂性。 我依稀记得以前尝试用Samba实现冗余,而且我不能在服务器之间静静地进行故障切换。 即使在线时,您也正在使用本地文件,如果仅在断开连接时触摸本地caching,将导致更多的冲突 这不是自动的。 我们不能期望用户定期使用(function性但不太漂亮的)GTK GUI手动同步他们的文件。 我试图用Windows任务计划程序半自动化这个过程,但是你不能以令人满意的方式真正做到这一点。 最重要的是,Unison的工作方式使得与Samba同步成本很高,所以恐怕它不能很好地扩展,甚至根本就不能扩展。 Samba +“脱机文件” 之后,我们变得有点绝望,给了Windows“离线文件”一个机会。 我们认为拥有内置于操作系统的东西可以减lesspipe理工作, 在工作不正常时帮助指责其他人,因为人们已经使用了这么多年,所以应该工作。 对? 错误。 我们真的想要它的工作,但它不是。 30分钟复制文件和拔掉网线/禁用networking接口留给我们 (无声!状态栏中的Windows资源pipe理器中只有一个很小的通知,如果点击它,它甚至不会打开同步中心!)服务器上的不可修复的文件(!)和 甚至不应该是冲突的冲突。 最后,我们有一个小文本文件成功同步,其他一切只是爆炸可怕。 除此之外,还有其他问题: […]
我有一个NGINX服务器设置来处理一个网站的caching(在别处运行)。 像魅力一样工作,但是我们希望pipe理员可以select从后台刷新caching。 我正在考虑使用FTP来处理这个问题,只需从caching目录中删除所有文件即可。 我已经设置了这样的caching: proxy_cache_path /var/cache/nginx/my_site levels=1:2 keys_zone=MY_SITE:8m max_size=2048m inactive=720m; 但是这些文件存储的权限为700.我怎样才能告诉NGINX也授予组(770)的权限? 然后我将创build的FTP用户添加到该组。 任何其他build议来处理冲洗将是OK(我heave读取StackOverflow上的线程 )。 后台位于另一个位置,所以我将不得不使用一些远程技术。
我刚刚开始在memcached的VPS上使用memcached 。 我将caching大小设置为512 Mb,但是我想知道是否可以使用1024 Mb。 在VPS上有: 一个本地的商业网站,很less有连接(像一天最多10个会话,只有匿名用户),偶尔网站pipe理员更新内容。 奖励网站不活跃(可能会移动到其他地方); 几个开发者网站我是唯一使用的。 希望以后我可以把另一个本地商业网站(也许删除一些开发网站)。 在激活4个站点(1个匿名,3个经过validation的用户)时,注意到最高命令,我注意到内存使用量高达700Mb,所以高达1.3Gb空闲。 我使用Apache。 每页的当前加载时间在2到3秒之间,除了第一个页面对于较less使用的站点可以持续5-8秒。 这个想法是可能增加caching以获得更多的索引path和页面。 但是我读了一些关于交换的风险。 所以我想知道什么是最好的select,以优化2本地商业网站+也许1沙箱和1开发网站的页面加载。
我正在为caching代理服务器设置一个Nginx服务器。 我注意到,caching不工作,当这个头在请求: Pragma: no-cache 没有这个头,caching工作正常。 我可以让Nginx从客户端忽略这个头字段,并caching结果。 因为我不能轻易更改客户端代码(需要重新安装很多设备)。
我无法使caching系统与Joomla 3.x一起工作。 这是一个特别的问题,因为服务器应该执行HTTPS / TLS连接。 Joomla系统在Debian Wheezy的Apache2上运行。 我试图设置清漆,但发现清漆无法终止TLSstream量,所以我需要将其路由回Apache或HAProxy。 但是,如果我这样做,Joomla会混淆请求头被重写,而请求是通过所有这些层交付,Joomla结束卡住redirect循环或答复与服务器错误。 有没有一个干净的方式来放置一个caching,甚至是在Joomla前面的负载均衡器,而没有源于另一台服务器上发生SSL终止的redirect问题?
我正在寻找一个工具来显示文件的哪个部分在文件系统caching中。 在过去,我使用了作为linux-ftools包的一部分的fincore工具。 linux-ftools没有使用我自2012年以来没有更新过的任何发行版本。
我目前的Drupalconfigurationnginx提供以下错误。 不知何故,我无法启用nginxcaching。 试过不同的configuration,但超时我得到相同的错误。 任何人都可以帮忙吗? nginx: [emerg] the size 5242880 of shared memory zone "MYAPP" conflicts with already declared size 0 in /etc/nginx/nginx.conf:51 nginx: configuration file /etc/nginx/nginx.conf test failed 我的nginx.conf user nginx; worker_processes auto; http { include /etc/nginx/conf.d/*.conf; include /etc/nginx/mime.types; fastcgi_cache_path /var/cache/nginx levels=1:2 keys_zone=MYAPP:5M max_size=256M inactive=2h; fastcgi_cache_key “$scheme$request_method$host$request_uri”; add_header X-Cache $upstream_cache_status; ## Set a cache_uid variable […]
我使用Nginx来提供静态文件(同时也用作我的NodeJS express RestAPI的反向代理)。 问题是当我推送一个新的git提交到服务器,用户仍然会得到旧的(最新版本)文件。 目前的解决方法是用户在浏览器中清除caching。 这可能是什么原因? 我猜这是一些服务器端cachingconfiguration错误? 看下面我的nginxconfiguration(基本+包括)。 如下所示,静态文件(.html,.js,.css)驻留在/ var / www / frontend ## # Basic Settings ## sendfile on; tcp_nopush on; tcp_nodelay on; keepalive_timeout 65; types_hash_max_size 2048; # server_tokens off; # server_names_hash_bucket_size 64; # server_name_in_redirect off; include /etc/nginx/mime.types; default_type application/octet-stream; listen 80; server_name **REMOVED_FOR_PRIVACY_REASONS**; proxy_cache_valid 404 1m; location / { root /var/www/frontend; index […]