Articles of 请求

服务器日志中不明原因的请求的来源

我很困惑我的服务器日志中的一些条目,特别是networking服务器日志。 除了正常的预期stream量外,我注意到了三种types的请求错误(例如404等): 断开的链接,即来自旧的外部页面的链接指向不再在这里的页面 探测序列,即一些混蛋试图通过扫描我的服务器一系列可利用的pipe理types页面入侵等 什么似乎是完全随机的请求,从来没有在服务器上存在,甚至与服务器有任何关系,并出现自己(即不是一系列的请求,如探针) 难道它不知何故是错误的URL或IP? 这只是我能想到的唯一的东西,但是,我仍然可以如何获得foob​​ar.dyndns.org(12.34.56.78)的请求,例如www.wantsfly.com/prx2.php或/MNG/LIVE或http://ant.dsabuse.com/abc.php?auth=45V456b09m&strPassword=X%5BMTR__CBZ%40VA&nLoginId=43 。 (这些是我的日志中的一些实际请求。) 有人可以向我解释情景三吗? 谢谢。

奇怪的请求 – http://66.196.81.202/error/vote

嗨,我的一个朋友正在询问可以在这里find的请求: http://www.geoidee.ch/geodata/geoserver-2.0.0/logs/2010_11_23.request.log 他原来的信息: 在全球数百个网站上,50个最常见的“文件未find”错误404之一是由以下请求引起的: "GET http://66.196.81.202/error/vote HTTP/1.0" 它起源于一个声称是iPhone的用户代理。 打到我的服务器的两个请求似乎来自德国法兰克福附近。 请求中的IP地址是雅虎的一部分,但我怀疑雅虎是否有任何有意的部分。 fe1.buzz.vip.re1.yahoo.com HTTP请求有一个主机头66.196.81.202 和X-Forwarded-For的96.6.99.16和我的IP地址 我希望能够做一个谷歌search,find一些安全公告,但我什么也没find。 这可能只是因为我的search技能不足。 感谢任何指向这可能是什么

服务器响应是否在并行请求中变为串行?

让我们有一个由Nginx服务的web应用程序,听80端口。 当两个或更多用户尝试访问该应用程序的某个URL时,哪个响应需要很长时间。 例如,十个用户尝试在100秒内为单用户请求加载/give_me_some_charts页面和服务器响应。 每个用户试图通过端口80访问应用程序。 我相信服务器(在我们的例子中是Nginx)将阻止该端口,直到发送响应。 所以处理十个用户需要10 users * 100 seconds == 1000 seconds 。 但是Nginx有一些function叫做平衡 。 现在我不确定服务器如何处理并行请求。 那么,服务器如何处理并行请求以及它如何响应呢? 那Nginx的平衡function是什么?

当在大多数浏览器的链接中点击链接时,URL会生成一个302redirect – 但是在input时会返回200

我正在Joomla上build立一个小型网站,遇到一个奇怪的redirect问题。 我想在我的网站中包含一个链接到一个设置在不同服务器上的论坛。 当我在浏览器中键入或复制/粘贴论坛url时,它完美地工作: http : //www.techcomputerworld.com/almeriarocketry/ 这是请求/回应: Request URL:http://www.techcomputerworld.com/almeriarocketry/ Request Method:GET Status Code:200 OK Request Headersview source Accept:text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8 Accept-Encoding:gzip,deflate,sdch Accept-Language:en-US,en;q=0.8 Cache-Control:max-age=0 Connection:keep-alive Cookie:phpbb3_gu83i_u=1; phpbb3_gu83i_k=; phpbb3_gu83i_sid=5d7245ace142f186e3049d7666c528d7; __utma=214190226.1703438907.1378288831.1378288831.1378288831.1; __utmb=214190226.1.10.1378288831; __utmc=214190226; __utmz=214190226.1378288831.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); style_cookie=null Host:www.techcomputerworld.com User-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.57 Safari/537.36 Response Headersview source Cache-Control:private, no-cache="set-cookie" Connection:Keep-Alive Content-Encoding:gzip Content-Length:3805 Content-Type:text/html; charset=UTF-8 Date:Wed, […]

JYADXW是什么意思作为HTTP动词?

有些混蛋攻击了我的服务器,当我看到“JYADXW”的HTTP动词GET / POST / OPTIONS通常驻留的时候,我正在读日志。 这是什么要求? 这是什么意思? malicious IP Here – – [26/Sep/2014:06:12:01 -0400] "JYADXW / HTTP/1.1" 403 520 "-" "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)"

根据nginx中的http引用来源目录中的静态文件

我的服务器托pipe的图像,但图像的内容必须是相同的链接不同,并加深http引用。 For example: Website 1 load image website1.jpg from www.example.com/123123/img.jpg Website 2 load image website2.jpg from www.example.com/123123/img.jpg 我怎样才能pipe理使用NGINXconfiguration? 更新:我给你们更多关于整个想法的细节: 图片加载在页面上: www.not_my_website.com/123123/ www.not_my_website.com/456456/ www.not_my_website.com/686667/ 我无法访问此网站,但可以从我的网站上获取图片。 <img src="www.example.com/123123/img.jpg"></img> 我需要基于页面ID www.not_my_website.com/ID/为其他图像提供相同的htlm代码。 感谢帮助。

如何使用Squid将一个请求redirect到另一个主机?

我试图将一个内部的GitLab安装与一个Slack传入的webhook集成在一起,但是我有一个问题,那就是GitLab只能访问同一个networking中的其他机器的机器。 我有虚拟机在同一个networking,并有外部访问。 Slack的webhook是这样一个URL: https://hooks.slack.com/services/T18QMD0NM/C09PY5XKO/52lDzmkoxL51p9NLRqxQ9Kq2 但是因为我不能在GitLab中使用它,所以我已经在GitLab上configuration了Slack服务来向下面的URL发出请求: https://192.168.1.220:3128/services/T18QMD0NM/C09PY5XKO/52lDzmkoxL51p9NLRqxQ9Kq2 虚拟机的IP地址是192.168.1.220 ,Squid正在监听的地址是3128 。 如何使用Squid将所有传入请求转发到hooks.slack.com ? PS:我有一个干净的Squid安装,根本没有改变任何设置。

如何在Apache中处理请求两次

为了执行一个新的后端服务器的现实testing,我想处理所有的Apache请求两次。 因此,简单地处理所有与旧服务器的活动请求,因为它现在完成,但是也将请求复制到不同的虚拟主机,新的后端部署在这里,这将处理请求并logging响应。 在Apache中实现这个最好/最简单的方法是什么? (后端是一个FastCGI进程)

Haproxy:如何平衡目录内的stream量到达?

我想知道是否有一种方法来平衡使用haproxy目录内的stream量。 我有haproxy平衡所有HTTP通信到server1 & server2 。 我想要的是平衡所有的images目录请求到server1 例如 url: http://www.domain.com/images/image_one.jpg url: http://www.domain.com/images/image_two.jpg url: http://www.domain.com/images/image_three.jpg 所有这些请求必须到server1。

在linux上检查http POST请求的正文内容的最佳方法

我使用ngrep来查看http标题,我从来没有设法从tcpdump获得透明的东西,我不喜欢wireshark这样的GUI应用程序。 ngrep是伟大的,但我似乎无法find一种方法来grep POST请求和他们的身体内容的标题…可以请任何人告诉我如何做到这一点,或build议一些其他方法打印标题和内容的POST请求机构?