复制一个网站并保存文件和文件夹结构

我有一个运行在古老版本的Oracle Portal上的旧网站,我们需要将它转换为平面html结构。 由于服务器的损坏,我们无法访问pipe理界面,即使我们没有可以使用现代软件版本的导出function。

抓取网站并将所有页面和图像保存到文件夹就足够了,但文件结构需要保留; 也就是说,如果某个页面位于http://www.oldserver.com/foo/bar/baz/mypage.html,则需要将其保存到/foo/bar/baz/mypage.html,以便各种Javascript位将继续运行。

我发现的networking爬虫没有一个能够做到这一点; 他们都想重命名页面(page01.html,page02.html等),并打破文件夹结构。

是否有任何爬网程序可以重新创build网站结构,因为访问该网站的用户看起来像? 它不需要重做页面的任何内容; 一旦rehosted页面将会有所有他们原来的相同的名字,所以链接将继续工作。

wget -r将recursion地获取整个网站并将其全部保存在同一个结构中。

试用HTTrack网站复印机: http ://www.httrack.com/

(抱歉没有更多的细节,太迟/清晨)