我有Cygwin安装在我的Windows系统我想执行wget commad为一个网站,但我gettign下面的错误信息 错误: xxx.com' is not trusted. ERROR: The certificate of的证书xxx.com' is not trusted. ERROR: The certificate of xxx.com' is not trusted. ERROR: The certificate of xxx.com xxx.com' is not trusted. ERROR: The certificate of没有一个已知的发行者。 我如何解决这个问题 – 以便我可以继续下去。 谢谢
从我的服务器之一wget到一个特定的url不断得到超时。 从这个盒子的所有其他url工作正常。 这个url可以从任何其他我有。 这是输出: wget -T 10 http://www.fcc-fac.ca –2011-07-14 14:44:29– http://www.fcc-fac.ca/ Resolving www.fcc-fac.ca… 65.87.238.35, 207.195.108.140 Connecting to www.fcc-fac.ca|65.87.238.35|:80… failed: Connection timed out. Connecting to www.fcc-fac.ca|207.195.108.140|:80… failed: Connection timed out 你能告诉我什么可能是错的,我该如何解决它? 我使用Ubuntu 11.04(GNU / Linux 2.6.38-8-x86_64) 非常感谢你提前,并原谅我的noobish无知:) ping,telnet,nc www.fcc-fac.ca 80 – 全部挂起。 然而,其他一些网站虽然只有部分主机是可以ping通的, traceroute并没有告诉我很多: 7 rx0nr-access-communications.wp.bigpipeinc.com (66.244.208.10) 148.834 ms 149.018 ms 148.940 ms 8 sw-1-research.accesscomm.ca (24.72.3.9) […]
我无法使用wget来使用客户端证书。 该文档讲述了使用–certificate标志。 证书标志的使用是明确的,我将其设置为使用客户端证书的PEM版本。 但是当我连接时,我得到以下错误: HTTP request sent, awaiting response… Read error (error:14094410:SSL routines: SSL3_READ_BYTES:sslv3 alert handshake failure; error:140940E5:SSL routines:SSL3_ READ_BYTES:ssl handshake failure) in headers. Giving up. ssl握手失败意味着客户端没有提供正确的客户端证书。 仍然是我使用的客户端证书,在浏览器中工作。 注意:当我禁用服务器上的客户端身份validation时,wget可以连接。 注意:build议使用curl,但我想避免切换。
我试图使用wget镜像网站,但我不想下载大量的文件,所以我使用wget的–reject选项不保存所有的文件。 但是,wget仍然会下载所有文件,然后删除文件,如果它匹配我的拒绝选项。 有没有什么方法可以告诉wget不遵循某些链接,如果他们匹配一些shell通配符? 如果wget不能做到这一点,是否有一些其他常见的Linux命令可以做到这一点?
我正在尝试下载两个网站以包含在CD中: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info 我遇到的问题是这些都是维基。 所以当下载与例如: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ 我得到了很多文件,因为它也遵循链接,如…?action = edit …?action = diff&version = … 有人知道一个方法来解决这个问题吗? 我只想要当前的页面,没有图像,没有差异等。 PS: wget -r -k -np -nv -l 1 -R jpg,jpeg,png,gif,tif,pdf,ppt http://boinc.berkeley.edu/trac/wiki/TitleIndex 这工作berkeley但boinc-wiki.info仍然给我麻烦:/ PPS: 我得到了什么似乎是最相关的网页: wget -r -k -nv -l 2 -R jpg,jpeg,png,gif,tif,pdf,ppt http://www.boinc-wiki.info
我没有下载用于VMWare(Ubuntu 9.10)的RubyStack 2.0.3,但我无法下载任何东西! 看来,所有基本的公用事业缺失/拧紧: bitnami@linux:/var/tmp$ wget -bash: wget: command not found bitnami@linux:/var/tmp$ curl curl: error while loading shared libraries: libcurl.so.4: cannot open shared obj ect file: No such file or directory bitnami@linux:/var/tmp$ man wget -bash: man: command not found bitnami@linux:/var/tmp$ sudo apt-get install wget [sudo] password for bitnami: Reading package lists… Done Building dependency tree […]
我在运行Debian 5.0的同一个子网上有两台机器。 他们使用相同的DNS(/etc/resolv.conf),他们路由到相同的网关(#route),他们有相同的iptables设置(#iptables -L)。 我可以从他们两个,ping到IP地址和主机名。 我可以运行#host www.google.com并获得相同的结果。 但问题是,在其中一个上,我无法控制或curl。 所以在机器1上一切正常,但在机器2(与机器1相同的设置),我不能wget或curl。 我得到的错误是: # wget google.com –2009-10-20 16:38:36– http://google.com/ Resolving google.com… failed: Name or service not known. wget: unable to resolve host address `google.com' 但是在机器1上,wget或curl并没有问题,并返回: # wget google.com –2009-10-20 16:43:55– http://google.com/ Resolving google.com… 74.125.53.100, 74.125.45.100, 74.125.67.100 Connecting to google.com|74.125.53.100|:80… connected. HTTP request sent, awaiting response… 301 Moved Permanently […]
我正在使用wget将一些文件从一台服务器镜像到另一台服务器。 我正在使用以下命令: wget -x -N -i http://domain.com/filelist.txt -x =因为我想保持目录结构 -N =时间戳只能得到新的文件 -i =从外部文件下载文件列表,每行一个。 小文件,如一个我正在testing的326kb大下载就好了。 但是另一个是5GB只下载203MB然后停止(总是203MB给或几千字节) 显示的错误信息是: 无法写入到“path/ to / file.zip” (我不知道为什么前后有奇怪的字符,我在Windows中使用腻子,这可能会或可能不会有什么关系,所以我把它们放进去了,我不假定)。 完整的回应如下:(我已经replacepath,IP和域名) – 2012-08-31 12:41:19– http://domain.com/filelist.txtparsingdomain.com … MY_IP连接到domain.com | MY_IP |:80 …已连接。 发送HTTP请求,等待响应… 200 OK长度:161 [文本/纯文本]服务器文件不比本地文件更新âdomain.com/filelist.txtâ – 2012-08-31 12:41:19 – http://domain.com/path/to/file.zip连接到domain.com | MY_IP |:80 …已连接。 HTTP请求发送,等待响应… 200 OK长度:5502192869(5.1G)[application / zip]大小不匹配(本地213004288) – 检索。 – 2012-08-31 12:41:19 […]
使用wget命令,每次我如何允许/指示覆盖本地文件,而不pipe我调用多less次。 比方说,我想从位置下载一个文件: http://server/folder/file1.html 在这里,每当我说wget http://server/folder/file1.html ,我希望这个file1.html被覆盖在我的本地系统中,而不pipe它被更改的时间,已经下载等等。我的意图/使用案例在这里是当我打电话给wget,我很确定,我想要replace/覆盖现有的文件。 我已经尝试了以下选项,但是每个选项都是为了其他目的而devise的。 -nc => – 无法打开 -N =>打开时间戳 -r =>打开recursion检索
我想使用cURL将uptime和df命令的输出发送到一个web应用程序。 我试过了: uptime | curl http://someurl.com -T – 但是这似乎并没有传送数据。 将命令的输出作为POST参数发送到cURL的正确方法是什么? (或wget,如果这更容易)