Articles of http

Tomcat 6 HTTP日志滚动和清除

我们在Apache Tomcat 6容器中运行我们的Web应用程序。 我们的代码使用SLF4J和Logback和卷/清除就好了。 Tomcat日志(catalina,stdout等)只是在Tomcat服务重启时被删除。 问题是我们也在做一些HTTPlogging。 至于任何人都可以告诉它来自Tomcat server.xml文件中的这一行。 <Valve className="org.apache.catalina.valves.FastCommonAccessLogValve" directory="httplogs" pattern="combined" resolveHosts="false" prefix="" suffix=".log" rotatable="true" fileDateFormat="yyyy-MM-dd" /> 这似乎旋转得很好,但从来没有清除。 有没有办法让Tomcat自动清除,或者我必须修改重启脚本来清理httplogs目录?

启用任何PHP脚本的Apache的PUT方法

我想启用PUT和DELETE方法到我的Apache Web服务器上的任何.php脚本。 目前我只有这个答案: URL /something.php不允许请求的方法PUT 我在Debian lenny上运行Apache2 / PHP5。

减lessApache请求排队

在New Relic中,它们显示为应用程序响应时间的一部分是“请求队列”。 要收集请求排队时间,您需要在开始排队时使用时间戳标记HTTP请求。 [1] 这是通过在Apache httpd.conf中添加一个HTTP头完成的: RequestHeader set X-Request-Start "%t" 新遗物提到: 对于请求排队,站点操作员可以configuration更多的应用程序实例。 但是我们已经看到添加新的应用程序实例(即Web节点)不会影响请求排队时间 – 它保持不变。 我们看到这在250毫秒左右。 什么因素影响请求队列的长度,以及如何减less这个因素? [1] http://support.newrelic.com/help/kb/features/tracking-front-end-time

我可以通过httpvalidation大文件下载零碎吗?

我通过wget ,1.2TB通过http下载一个大文件。 下载大概需要一个星期,现在已经包含两次腐败(失败的MD5检查,这需要几天时间才能运行)。 是否有一种很好的方法来validation文件零碎的HTTP使用curl ? 或者把它分成不同的块,这样我可以识别一个特定的坏块,重新下载这个块? 该文件是一个tar档案,所以我认为每个块的损坏可以在解包过程中顺序识别。

monit:无法连接到http界面

我正在build立一个新的网站,在这个问题上我将把它称为mywebsite.com。 我已经设置了configuration来访问monit的web界面页面,但我无法连接到它。 我有一个使用iptables运行的基本防火墙,我想我已经为monit做了一个漏洞,但是我无法连接到monit的web界面,我不知道为什么。 我还没有设置任何监视器:我的监视configuration如下所示: ## Start monit in the background (run as a daemon): set daemon 120 # check services at 2-minute intervals set httpd port 2812 and use address mywebsite.com allow localhost allow admin:password 我已经重新启动了这些规则。 我已经在我的iptablesconfiguration中做了monit的规则,如下所示: #monit interface -A OUTPUT -p tcp –dport 2812 -j ACCEPT -A INPUT -p tcp –dport 2812 -j ACCEPT […]

nginx位置块可以匹配URL查询string吗?

nginx location块可以匹配URL查询string吗? 例如,什么位置块可能匹配HTTP GET请求 GET /git/sample-repository/info/refs?service=git-receive-pack HTTP/1.1

设置除指定URL之外的Apache HTTP标头

我使用的是Apache 2.2,并且希望将X-Frame-Options标头设置为“拒绝”大部分网站。 我可以使用mod_headers无条件地打开它。 但是,有一个CGI脚本返回必须被构build的内容,所以我需要closures该脚本。 有没有办法做到这一点? 我正在使用Debian的Apache 2.2.9。

我们应该多久看一次400错误的请求?

我们运行一个Apache2 Web服务器,每天服务2-3万个页面(只有HTML + CSS + Javascript,图像和其他内容由Lighttpd提供)。 我们的logwatch电子邮件每天在3-5个“400个不良要求”项目之间输出。 它主要是每天使用相同的URL,但每个URL很less超过1次。 列出的url主要是针对我们网站上的标准网页浏览量(几乎所有用户都会访问的url)。 如果将access.log列出的IP的error.log作为已收到错误的错误,则结果总是[error] [client xxx.xxx.xxx.xxx] request failed: error reading the headers, referer: xxx 。 我的假设是这些都不用担心,至less在这种情况下是不常见的。 我们在这里看到的错误的数量是由丢失的连接产生的还是类似的? 我应该检查什么来弄清楚? 我应该让它独自一人吗?

最佳错误代码为“一般错误”

我正在为我的网站创build自定义错误页面。 我想要一个,如果有一个通用的错误(无效查询string,不正确的身份validation等),将被显示。 这很容易,问题是,这是什么错误代码? 404没有find,403被禁止。 这最好的代码是什么?

对于一个小型的家庭networking,是否有任何点运行Squid?

对于一个小型的家庭networking – 两台笔记本电脑,两台台式电脑,再加上主服务器 – 我应该期望通过在主服务器上运行Squid获得更多收益吗? 我完全理解为小型家庭networking运行caching名称服务器的价值,但我不确定运行HTTPcaching代理是否有任何价值。 主服务器为networking上的所有其他计算机执行完整的NAT,以防万一。