每天自动备份多个网站

这是我的情况
我有一个web服务器电脑与许多网站(使用vhost)运行freebsd。 以防万一我的服务器发生故障,我想在每个午夜备份每个网站。

我的问题是:
1.是否可以用一个命令备份不同文件名的多个网站?
2.我可以通过FTP自动将备份文件存储到我的其他服务器上吗?
3.还是创build一个克隆服务器更好? 我如何同步它的内容?

任何线索将不胜感激

  1. 是否有可能从一个命令备份不同文件名的许多网站?

是。 你只需要写一个bash脚本来执行备份。

  1. 我可以通过FTP自动将备份文件存储到我的其他服务器吗?

是。 同样,您需要从备份脚本中执行此操作。

  1. 或者最好创build一个克隆服务器?

那么,这取决于你自己决定。

我如何同步它的内容?

这是一个非常大的话题,需要自己的问题和答案。

* nix有一堆预制的备份系统。 我build议你检查rsnapshot或rdiff备份。 这些只会占你的文件 。 对于你的数据库 ,你需要研究最好的方法来支持和分开实施。