网站备份和下载

一般如何下载整个网站,尤其是* .blogspot.com? 请注意,我不需要pipe理员访问该网站。 其实我只是试图下载一个第三方网站,以防万一它进入火焰…

我发现httrack( http://www.httrack.com/ )在过去非常有用。

如果您使用任何工具尝试下载整个网站(而不仅仅是httrack),请确保您对网站有一点点的考虑。 有关这方面的一些指示,请参阅httrack的“不做什么”页面 。

你可以使用wget来镜像网站[提供它没有基于Flash或JavaScript的导航]。

看看这里或只是检查命令的手册 。 wget可用于unix系统和窗口 。

如果您没有该站点的pipe理员访问权限以使用该站点的备份工具,那么您可以备份页面的HTML内容,查看源代码来源,或者如果您只想要文章的实际书写内容,请复制那。 您也可以从网站下载您的图片和其他附件。 本文为您提供了如何以更高效的方式实现这一目标的详细信息。

你也可以使用wget来获取站点信息。

请记住,这不会给你所需要的信息,只需要把你的博客,并在别的地方运行,有一个PHP后端加载您的网站等blogspot后面等。

wget我相信会爬你一页

选项-r我相信是你想要的。 下面请注意关于转换链接以供离线查看的部分。 既然你说你想拥有这个页面,以防万一“火上浇油”,这将允许你在本地浏览它。

从手册页

Wget can follow links in HTML and XHTML pages and create local versions of remote web sites, fully recreating the directory structure of the original site. This is sometimes referred to as "recursive downloading." While doing that, Wget respects the Robot Exclusion Standard (/robots.txt). Wget can be instructed to convert the links in downloaded HTML files to the local files for offline viewing. 

如果你想要一些更高级的东西,看看黑寡妇

下载整个网站最简单的方法是使用网站下载器 。 无需安装或configuration,只需input您想下载的url,然后按下载即可。