Articles of wget

Wget和recursion下载

启用目录列表的文件夹有2个zip文件。 我正试图下载其中的一个(最新)。 问题是zip文件名是一个随机string。 我到目前为止的命令是 wget -r -nH –cut-dirs=3 –no-parent –accept=zip http://192.168.1.21/files/$name/?C=M;O=A 这似乎下载所有的zip文件。 我希望下载第一个wget会击中。 有没有办法做到这一点?

在什么情况下,Apache允许不匹配的HTTP_HOST通过?

有人设法将未定义的HTTP_HOST服务器variables传递给我的应用程序脚本,从而触发一系列错误。 我很困扰,但无法复制这种行为。 我的httpd服务器使用以下参数使用基于名称的虚拟主机: ServerName example.com:80 UseCanonicalName On <VirtualHost *:80> ServerName example.com ServerAlias ftp.example.com service.example.com ErrorDocument 404 /error/404.html.var … </VirtualHost> <VirtualHost *:80> ServerName notfound.example.com ServerAlias * RedirectMatch 404 ^/(?!error) ErrorDocument 404 /error/404.html.var </VirtualHost> 我试图使用wget复制请求与以下内容: wget -dS –header='Host: ' http://example.com/?x0a/x04/x0a/x04/x06/x08/x09/… –2014-07-30 03:00:00– http://example.com/?x0a/x04/x0a/x04/x06/x08/x09/… Connecting to example.com:80… connected. —request begin— GET / HTTP/1.1 Accept: */* Host: Connection: Keep-Alive […]

哪个Ubuntu软件包有debian.neo4j.org(godaddy)的CA?

neo4j网站显示你应该使用他们的证书 wget -q -O – http://debian.neo4j.org/neotechnology.gpg.key 这当然可以让他们的证书被黑客入侵。 所以,我真的应该使用https://debian.neo4j.org/neotechnology.gpg.key 。 但是当我这样做的时候, wget和curl都不能find证书。 另一方面,Chrome似乎完全满意。 以下是wget的详细消息: 错误:无法validation“CN = Go Daddy安全证书颁发机构 – G2,OU = http://certs.godaddy.com/repository/,O=GoDaddy.com \ ,Inc.,L颁发的debian.neo4j.org的证书=斯科茨代尔,ST =亚利桑那,C = US“: 我必须在这种情况下使用命令行工具,我非常喜欢使用** https *。 什么软件包将安装我需要的authentication? [我已经知道–no-check-certificate 。 这不是我想要的]

通过代理从远程网站下载SSL证书

我想要一个脚本来检查我的服务器的证书。 这里有很好的答案,如何得到openssl s_client或gnutls-cli ,这工作正常….但不是如果你是在代理背后! 卫生署! 我没有发现可以告诉这些工具使用代理。 几个星期前(十五年后)Openssl似乎已经添加了-proxy选项,但是我不能使用这个版本,因为它在我的环境中还不可用。 我也不能安装像proxytunnel (我真的很喜欢)一些奇特的非标准隧道软件。 那么有什么办法从Web服务器下载远程证书与任何标准的工具,如curl , wget , openssl等?

无法获取cURL或wget来validation某些SSL证书

我注意到我们的链接检查器,使用cURL,越来越经常validationSSL证书。 我正在试图弄清楚这一点。 例如, https: //www.bgetem.de/在我的Windows 7机器上的每个浏览器(IE 11,Firefox,Opera,Chrome)上都可以正常打开,但是我的CentOS 6和Ubuntu 16.04上的cURL(和wget)不能validation证书。 这里是cURL从CentOS的详细输出(版本curl 7.19.7 (x86_64-redhat-linux-gnu) libcurl/7.19.7 NSS/3.27.1 zlib/1.2.3 libidn/1.18 libssh2/1.4.2 ) * About to connect() to www.bgetem.de port 443 (#0) * Trying 193.104.3.166… connected * Connected to www.bgetem.de (193.104.3.166) port 443 (#0) * Initializing NSS with certpath: sql:/etc/pki/nssdb * CAfile: /etc/pki/tls/certs/ca-bundle.crt CApath: none * Peer's certificate issuer is […]

在Debian服务器上,使用apt-get在一两秒钟后下载

我有一个主要用作非常低stream量的Web服务器的Debian服务器。 最近它的networking连接开始有些麻烦了。 我能够使用SFTP从外部连接上传文件到这个服务器,速度就好了。 但是,如果我通过SSHlogin服务器并尝试使用wget,curl甚至“apt-get update”来下载文件,则连接将在下载100-200千字节的数据后停止。 由于这个问题,我现在甚至无法更新系统。 但是,让我难以理解的是,通过FTP或者SFTP从一个完全独立的外部连接上传文件就可以正常工作,所以我知道服务器的上行和下行都可以。 服务器本身也可以正常速度上传到外部来源。 任何人都知道发生了什么事? 如果你需要更多的信息,请问。 我需要解决这个问题。 🙂 谢谢!

我如何写一个terminal命令从Media Temple(gs)服务器下载wget的文件夹?

我试图在terminal上使用wget下载一个文件夹(我在Mac上使用,如果这很重要),因为我的ftp客户端吮吸并保持超时。 它不保持长时间连接。 所以我想知道如果我可以使用wget通过FTP协议连接到服务器下载有问题的目录。 我已经在互联网上search了这个,并试图编写命令,但它一直失败。 所以假设如下: ftp的用户名是:[email protected] ftp的主机是:ftp.s12345.gridserver.com ftp的密码是:somepassword 我试图用以下方式编写命令: wget -r ftp://[email protected]:[email protected]/path/to/desired/folder/ wget -r ftp://serveradmin:[email protected]/path/to/desired/folder/ 当我尝试第一种方法时,我得到这个错误: Bad port number. 当我尝试第二种方法,我得到了一个更进一步,但我得到这个错误: Resolving s12345.gridserver.com… 71.46.226.79 Connecting to s12345.gridserver.com|71.46.226.79|:21… connected. Logging in as serveradmin … Login incorrect. 我可能做错了什么?

小时CRON任务运行频率超过一小时

我有一个cron任务,通过wget调用一个特殊的PHP脚本。 这是crontab项: 0 * * * * wget http:// www …. 它可以在几个小时内运行完美。 然而,几天之后,cron工作将开始被称为几次一小时。 我从来没有见过像这样的CRON漂移,所以我想这不可能是一个CRON的问题。 但是,被称为脚本的日志清楚地显示它每小时运行几次。 服务器详情: Ubuntu Luci 阿帕奇 MySQL的 PHP5 时间正在显示正确的@命令行 服务器设置为与NTP服务器同步 为了使脚本运行,它必须在URL中传递一个唯一的50个字符的散列键,所以这个脚本不会被任何其他来源的意外调用。 什么可能导致CRON这样漂移?

文件时间戳即使触摸也不会改变

我有以下问题。 我有一个bash脚本,它使用wget从构build服务器获取一些文件,然后将它们转移到生产系统:以下是相关的代码片段: #Several of these lines wget -nv -O birt_reports.zip "http://buildserver:8111/guestAuth/repository/download/bt6/.lastFinished/birt_reports.zip" #files in the for loop left out for simplicity for upload_file in "birt_reports.zip"; do scp -B -i /root/$keyfile $upload_file $user@gateway:/home/$user/deploy_staging touch $upload_file done 即使在那里接触,目录的ls -l中显示的时间也是文件第一次创build的时间。 如果我在bash脚本之外执行了wget或bash脚本以外的触摸,则时间更新正确。 这个问题可能是什么?

wget没有得到所有的文件

我有使用wget的问题, 基本上我使用它像: wget -m ftp://username:[email protected]:/path/to/dirs 一切完成后(它说xxx文件xx MB为xx秒),但是,当我检查文件,我注意到它实际上并没有完全下载的一切,我错过了什么?