我需要每天在Debian服务器下备份我的Mysql数据库。 我知道有足够的脚本,但是我的需求是每天备份为一个sql文件,并将每个备份单独放在同一个文件夹下(也许当前date是文件名?),因此每个备份都不会覆盖单个文件。 问候
这与我最后一个问题类似,只是我的最后一个问题包括标题中的“跑步”。 我已经知道这不是完全可能的。 这里是我对这些选项的理解(当使用LVM作为文件系统支持时)。 1.) 过程:closures域。 创build一个LVM快照。 把域名备份起来。 从快照创build备份。 销毁快照。 优点:完全一致的备份。 缺点:显然,这种方法的缺点是每次执行备份时都需要重新启动域。 2.) 过程:在域上运行“xm save”。 复制图像文件和状态文件。 运行“xm恢复”。 优点:停机时间less于#1。 缺点:仍然“一些”停机时间加上networking连接将会丢失。 此外,图像仍然不一定包含完全一致的文件系统,但是随着状态文件,可以创build一致的图像。 (我们将同时备份机器状态,内存内容等。) 3.) 过程:创build一个LVM快照。 从快照创build备份。 销毁快照。 优点:没有系统停机。 缺点:备份就好像电源线从机器上拔出,然后驱动器被移除并复制。 4.)通过您通常使用的任何过程从域内进行备份。 我是否错过或误解任何东西?
我是唯一的开发者,我有3台电脑。 另外我的一个朋友有一个帐户,但从来没有使用它。 我目前的设置是GIT +我自己的临时备份工作,克隆存储库,压缩,gnupg它,并将其发送到远程ftp。 目前为止,我的源代码/ docbook / xml文件+更小的二进制文件(主要是图标+用于docbook的一些图像)工作得非常好。 不过,我最近参与了一个Flash游戏项目,并为此创build了一个存储库,但是Flash FLA文件非常庞大(我见过+70 MB)。 和git重新包装一个低窗口大小不能再完成。 进一步我发现我的一些文件使用回车而不是换行,GIT不喜欢区分这些文件。 当我创build存储库时,我应该将它设置为在提交时自动将CR转换为LF。 但是我并不知道这些问题。 出于绝望,我尝试了Mercurial,但它的最大文件大小是10 MB。 我想也许把我的项目分成二进制文件,并保持在颠覆,因为它似乎与二进制文件确定。 和GIT的源代码。 但这将是一项艰巨的任务,听起来像是一个坏计划。 你使用什么版本控制系统? 你如何备份? 你怎么处理你的二进制文件?
我目前有一台Linux服务器,每天运行大约10,000个用户。 托pipe服务提供商提供了我也正在使用的备份。 虽然我信任我的托pipe人,但我希望有一个非现场备份,以防万一主机长时间停机或破产(你永远不知道)。 我的想法是tar和拆分数据并将存档复制到我的Amazon S3帐户,但我想知道这是否是最好的主意。
我目前通过每日执行mysqldump并使用logrotate保留mysqldump的最后7天来保持数据库的每日备份。 我想改进这个备份过程,以保持7日备份,3每周备份和12每月备份。 我发现这篇文章解释了如何使用logrotate进行修改: https ://web.archive.org/web/20070625054821/http: //hotcoding.com/os/sysadmin/35751.html 但是我使用dateext logrotate选项来命名我的备份文件,所以我不能使用这个解决scheme。 我如何使用logrotate和dateext选项来进行每日,每周和每月的备份?
我们有一个存储服务器,目前有大约20TB的媒体文件,我们希望与第二个存储服务器同步,用于备份和故障转移。 事实是: 我们目前正在存储大约9.000.000个文件 文件大小从几KB到1 GB 只需要单向同步 文件不会被更新,也不会删除 – 只有新文件才能同步 存储服务器正在运行open-e,它们作为NFS卷安装在networking中 目前我们只在第三台服务器上使用普通的rsync来执行同步。 我想知道,如果有更好的工具这么多的文件 – 商业或开源? thanx非常多,
我正在我的服务器上设置备份程序。 我要备份所有文件,MySQL数据库等。我想知道是否有一个文件或地方我可以备份,以便能够“恢复”MySQL用户?
我目前使用mysqldump备份我的MySQL数据库,例如: mysqldump –user USERX –password=PWDX DBNAMEX > dbbackup__`date '+%m-%d-%Y'`.sql 当我执行备份(通过cron作业启动)时,我在我的站点上设置了一个.htaccess规则,以将任何请求redirect到一个静态的“down for backup,short soon”页面。 一旦备份完成,我删除规则和网站重新打开。 一切顺利,好多年来一直如此,你可以想象这个工作完美,我没有任何问题。 然而… 我想在备份过程中不必closures网站,所以问题是我可以用mysqldump来做这个吗? 该工具是否能够处理备份后数据发生变化的情况? 如果确实有活的备份,我可以保证我不会得到损坏的备份? 有没有更好的方法来做一个实时备份?
tar可以创build不同格式的档案。 GNU tar,ustar,pax,v7。 什么是最好的长期归档? 这些格式有重大差异吗? 我会使用最好的格式进行一般的备份,而且我不希望我可以提取数据,因为格式问题。 (例如v7从实现中消失)
我最近注册了Rackspace来托pipe一些数据库服务器。 我已经安装了两台MySQL服务器,并且有一个创build备份的方法(使用Percona Xtrabackup和innobackupex工具)。 我一直在尝试使用重复将这些备份复制到S3和CloudFiles存储,它正在forververr ! 我预计S3备份不会很快,但CloudFiles备份需要15个小时来备份9GB。 这是可怕的慢,我不能接受。 我浏览过重复的源代码,默认情况下,它不使用Rackspace Servicenet传输到云文件。 然后,我查看了用于CF后端的lib的cloudfiles源代码,并看到有使用Servicenet( RACKSPACE_SERVICENET )的环境选项。 只要设置为cloudfiles lib应通过Rackspace Servicenet连接到cloudfiles, 应该为快速传输做准备。 它不是。 我不确定速度限制是否由于CloudFiles的某些限制,或者云文件python库实际上没有通过RackSpace Servicenet连接。 你们是否有任何其他的build议,我应该怎么做/可以去做这些备份离开服务器和第三方或远程备份服务?