Articles of 超时

间歇性的DNS超时

我有一个networking设置,最近用两个Windows Server 2012 R2域控制器取代了我们的两个Windows Server 2008 R2域控制器。 两者都是虚拟机,每个都在不同的物理机器上。 我的两个域控制器都启用了DNS服务器,并且都configuration为使用五个不同的外部转发器(如果没有转发器可用,则使用根提示)。 自升级以来,我们现在每天都会经历两次DNS超时(这些超时发生在dns服务器本身和客户端上,目前的模式似乎在上午7:30左右,dns超时发生,然后再次发生重新启动主要的主DNS服务器可以解决问题。 我不知道为什么会发生这种情况,并希望能够联系到社区寻求帮助! nslookup与d2参数时,一切正常(部分结果): SendRequest(),len 46 HEADER:opcode = QUERY,id = 4,rcode = NOERROR标题标记:查询,要recursion问题= 1,答案= 0,权限logging= 0,附加= 0 QUESTIONS: www.bbc.co.uk.electrum.co.uk, type = A, class = IN ———— 得到的答案(108字节):HEADER:opcode = QUERY,id = 4,rcode = NXDOMAIN头标志:响应,要recursion,recursion有效。 问题= 1,答案= 0,权威logging= 1,附加= 0 QUESTIONS: www.bbc.co.uk.electrum.co.uk, type = A, class = IN AUTHORITY […]

连接到本地主机/ 127.0.0.1时连接超时

我有一个Debian Squeeze专用服务器,它包含4个前端网站,以及几个后台工具和API(主要网站)。 自2008年以来,这一切都没有问题 – 但突然间,今天我们遇到了很多110: connection timed out错误,当试图连接到框托pipe的API。 这些应用程序是基于PHP / MySQL的,服务器软件是Apache。 每个调用API调用的域都被映射到/etc/hosts文件中的127.0.0.1,并且在curl和wget的命令行testing中显示实际的DNS查找正常parsing。 连接工作可能是三分之一。 我们检查并增加了(作为预防措施)Apache max_connections 。 同样,mysql的连接限制已经增加 – 但是这两个限制都没有达到。 超时testing请求甚至不涉及Apache错误/访问日志 – 看起来像Apache只是没有响应某些请求。 服务器负载本身永远不会超过0.6。 iptable规则自昨天以来没有改变(当这工作),并允许127.0.0.1内部连接。 绕过一个PHP /重写规则等我已经尝试请求从命令行上的子文件夹的简单图像。 在testing中,这个返回大概是三分之一。 其他时间失败。 任何人都可以build议接下来看什么? ——————更新—————– 似乎服务器间歇性closures端口80。 IP表没有规则来做到这一点… 有任何想法吗?

cURL引发504网关超时错误与外部网站在我的VPS

以下内容返回我的vps上的网关超时(debian,squeeze) curl –head http://www.flipkart.com/ HTTP/1.1 504 Gateway Timeout 但工作正常,即给我的家用电脑上的302 HTTP。 所以我猜想我的vps设置有些问题。 但是什么? 同样的命令昨天工作正常。 帮帮我! 编辑:PHP-cURL也会抛出一个504,这是如何发现这个问题.. 编辑2:其他网站工作得很好,但: curl –head https://google.com 编辑3:我可以ping到flipkart.com

请求与nginx,独angular兽和rails的超时问题

我在轨道上有一个应用程序,它在生产中运行独angular兽。 有一些请求需要花费很长时间来处理。 我已经configuration服务器来增加超时,所以这些请求正常工作。 问题是,当请求需要超过30秒的响应时,我得到这个消息: 暂停服务 该服务暂时不可用。 请稍后再试。 在unicorn.rb我有timeout 120configuration和我的nginx.conf是: upstream unicorn_my_app { server unix:/tmp/my_app.socket fail_timeout=0; } server { listen 80; client_max_body_size 4G; server_name www.my_app.com; proxy_read_timeout 120; keepalive_timeout 5; root /home/ubuntu/my_app/current/public; location / { proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Host $http_host; proxy_redirect off; if (!-f $request_filename) { proxy_pass http://unicorn_my_app; break; } } error_page 404 500 502 503 […]

WSUS清理 – 删除“不需要的更新文件”时超时

执行尚未完成的WSUS清理 – 运行清理向导,唯一select的选项是“不需要的更新文件”: 大约三分钟的处理之后,向导由于超时exception而崩溃: 这是我在控制台中按“复制到剪贴板”的消息: The WSUS administration console was unable to connect to the WSUS Server via the remote API. Verify that the Update Services service, IIS and SQL are running on the server. If the problem persists, try restarting IIS, SQL, and the Update Services Service. System.Net.WebException — The operation has timed out […]

是否有Windows远程桌面剪贴板传输超时,可以修改?

当我通过慢速远程桌面连接复制一个大文件时,每隔一段时间传输就会失败。 这是因为有一些指定的传输超时? 如果是这样,是否有一些registry项可以改变这个有限的时间段和/或指定一个无限的价值?

客户端请求function列表(FEAT)后Microsoft FTP无法连接

这是一个很奇怪的问题。 前几次尝试连接FileZilla只是挂在行211-Extended features supported:一会儿之前来说,错误:无法连接到服务器。 下面的FileZilla日志: Command: PASS *********** Response: 230 User logged in. Command: FEAT Response: 211-Extended features supported: Error: Could not connect to server 奇怪的是,如果我一直试图连接最终它只是工作,连接好。 在FileZilla知道服务器支持哪些function之后,它会停止询问一段时间,使您能够第一次连接,直到FileZilla决定再次检查function列表。 我在如何debugging这个损失。 有没有人经历类似的?

表中的大量插入/更新导致超时,而SQL Server重新排列索引

我们用SSIS插入/删除两百万行表中的大约一百万行。 我们在这张桌上有20个索引。 在SSIS结束后,我们在前端遇到超时。 超时最终消失。 我怀疑这些索引是在重组的时候造成的。 我们可以做什么? 谢谢

如何将灰熊网页服务器的超时时间从5分钟改为30分钟?

我正在使用Grizzly Web服务器版本1.9.27。 该服务器用于向客户端提供大量数据(如果相关,则通过HTTPS)。 目前服务器超时5分钟后。 换句话说,如果用户正在下载大量的数据,5分钟后,HTTP(S)请求处理器被灰熊中断。 我需要把它增加到至less30分钟。 我无法在Google上find任何configuration文件或任何相关信息来提高此超时。 有任何想法吗? 谢谢 编辑:(在回应DerfK)只是检查数据,并看到两个不同的'超时'scheme: 1-服务器收到请求,要求数据pipe理器获取数据。 数据pipe理员需要5分钟以上的时间,在此期间,Grizzly和客户端之间没有stream量。 2-数据服务器返回大量的数据传输到客户端,但需要5分钟以上(因为数据太多)。 优先解决问题1,连接空闲时超时。 (我不得不删除标签“灰熊”,因为我没有足够的积分来创build一个新的标签,我显然有足够的积分在stackoverflow中创build灰熊标签…这个问题最初发布的地方)

PHP是永远运行脚本,但我有max_execution_time设置为30

我有一个专门的框(所以我可以编辑所有设置)运行PHP 5.2.16。 我有Max_execution_time和max_input_time设置为60以下,重新启动apache(使用apachectl -k优雅),但脚本永远不会超时。 我用两个脚本testing了这个(实际上,我首先注意到了'真正'的脚本,可能应该已经超时了,但从来没有这样做过) while (1) { sleep(10); } 因为显然sleep()不会影响max_execution_time()我试过这个: while(1) { file_get_contents($url); } ($ url =一个大的图像,我也回应的东西,所以我知道它正在运行) 我可以运行脚本超过10分钟。 我检查过的东西: 这样做: echo ini_get('max_execution_time'); 回声60(这是从php.ini) 这样做: set_time_limit(5); echo ini_get('max_execution_time'); 回声5 但在这两种情况下,脚本将运行并永远运行! 我重新启动了Apache 我已经检查了/etc/php.ini的max_execution_time和max_input_time 。 据我所知,没有其他的php.ini 。 在任何“以前的”(更高的)目录中的.htaccess中没有任何关于max_execution_time或set_time_limit 如前所述,这不仅仅是一个问题,当我使用sleep() – 我注意到,我可以上传和处理数百个文件,而不需要set_time_limit(0)那里。