备份服务器网站作为一个自动化的过程?

我是一家小公司的networkingpipe理员。 我们在自己的服务器上托pipe我们的网站。 该网站运行在PHP和MySQL上。 我通过SSH访问服务器。

我对UNIX / LINUX命令不太熟悉,但是我已经得到了以前的networkingpipe理员关于如何备份网站的指示。 基本上,我需要将mysqldump操作导出到服务器上的.sql文件,然后将其移至本地安全位置。 我通过zip操作备份网站,并通过FTP下载。

我无法访问Apache服务器configuration,因此我无法在PHP中启用shell命令。 但是,我想编写一些简单的批处理程序,可以访问shell,login并自动运行一系列命令。 然后,pipe理员可以简单地下载这些文件(或者,更好的是,下载过程也可以自动化)。

这甚至有可能吗? 如果是这样,你能指导我从哪里开始学习这样的事情吗? 我甚至不知道要search什么。

非常感谢。

国际海事组织,最简单的解决scheme将是在服务器端设置一个cron作业,转储SQL数据库(-s),复制相关文件,打包到归档和移动到FTP文件夹。
完成之后,可以手动下载文件,或者使用rsync同步到远程机器。

一些相关的链接:

  • cron教程
  • rsync教程
  • 就绪的解决scheme,涵盖通过cron的SQL备份,并通过邮件发送存档

我们有一个类似的设置。 我们使用automysqlbackup生成每日数据库备份。 在automysqlbackup中,你可以设置一个“后脚本”,这将在mysql备份后被调用。 在这个后脚本中,我们有一些rsync命令,然后将所有文件同步到另一个服务器。 AMB在晚上被cron工作调用。

所以我们的解决scheme与Andrejs提供的解决scheme类似。 我们只是有一个专门的mysql备份工具。

AMB可以在备份作业完成时生成电子邮件。 这也是非常好的。

我同意其他人在服务器上设置cron作业和脚本通常是最好的select,但是如果它需要从桌面或其他机器启动,你可以看看使用Plink设置批处理脚本,然后设置它在任务pipe理器中,您应该可以将FTP添加到脚本的末尾或单独的任务中。