Articles of 备份

使用–listed-incremental进行tar增量备份不适用于我(Linux,Ubuntu)

根据http://www.gnu.org/software/automake/manual/tar/Incremental-Dumps.html ,我尝试使用tar创build增量备份,在我的Ubuntu上使用–listed-incremental,但是–listed-增量部分不适合我。 在第0天我执行: SNAR_TODAY=`date +%Y_w%U_${DOW}` TARGET='/srv/backups/' SOURCE='/srv/data' FILENAME=`date +%Y%m%d_%H%M` tar -cvf $TARGET/$FILENAME.tar –atime-preserve –listed-incremental=$TARGET/$SNAR_TODAY.snar $SOURCE &> $TARGET/$FILENAME.log 工作正常,并创build我/ srv /数据和2011_wXY_0.snar的完整备份。 在第1-6天我执行: DOW=`date +%u` TODAY=$DOW YESTERDAY=`expr $TODAY – 1` SNAR_TODAY=`date +%Y_w%U_${TODAY}` SNAR_YESTERDAY=`date +%Y_w%U_${YESTERDAY}` TARGET='/srv/backups/' SOURCE='/srv/data' FILENAME=`date +%Y%m%d_%H%M` cp -p $TARGET/$SNAR_YESTERDAY.snar $TARGET/$SNAR_TODAY.snar tar -cvf $TARGET/$FILENAME.tar –atime-preserve –listed-incremental=$TARGET/$SNAR_TODAY.snar $SOURCE &> $TARGET/$FILENAME.log 问题:tar创build一个完整的目录的新.tar – 不做任何增量的东西。 系统:Linux srv03 2.6.32-28-server#55-Ubuntu SMP […]

SQL Server事务日志BACKUPS非常大

在SQL Server 2008 R2中,我有一个每晚有完整备份的数据库,每十分钟有一个事务日志备份。 数据库处于完全恢复模式。 问题是,事务日志的备份文件的大小是几百兆字节,但绝对不能。 数据库中没有任何活动。 每个备份只有十分钟。 他们是如此之大,几天后它将完全填满硬盘。 任何想法是什么导致备份如此之大以及如何解决?

我如何备份/恢复我的Sql Server 2008数据库?

我有一个数据库是.. 20 Gig。 我需要(手动*)备份这个数据库,7zip的备份,然后从我的服务器下载这个备份到我的桌面。 (冲洗,经常重复sorta)。 我知道尺寸会很大,我把我的表分成许多Files和FileGroups : 所以文件XWing_Boundaries和XWing_BoundayStreets是(或多或less)静态数据**。 所以我把它们放在自己的文件和文件组中,所以我不需要将它们备份下载。 我只想下载(并在本地恢复)dynamic数据,即文件XWing。 我也不在乎日志文件。 那么,有没有一个技巧,我可以只备份/下载/恢复我所需要的单个文件/文件组,而不是每次抓取数据? 笔记: *我们每晚进行完整的备份,所以这一切都没有问题。 **我手动在蓝色月亮中更改一次这个数据。 我甚至还提出了使这些文件READONLY的build议,以提高额外的速度。

如何在没有本地副本的情况下远程备份svn

我有一个在磁盘上运行短的颠覆服务器。 我想归档一个较大的版本库来释放一些空间,所以我需要在远程服务器上对版本库文件进行完整备份。 不幸的是,回购是相当大的,这限制了几个简单的select: 我不能使用svn dump或svn hotcopy,因为没有足够的本地存储可用于存储库的完整副本。 我可以使用rsync,但svn服务器正在使用旧的berkeley db,看来这可能会创build一个损坏的备份。 回购没有被积极使用,但有可能有人我仍然在rsync运行时改变它。 在这种情况下停止SVN服务不是一个好的select,因为服务器被大量使用。 过去我使用过一个名为rsvndump的实用程序,我的经验是,虽然这对于这种情况来说是理想的,但它往往会在大型存储库中过早并一致地死亡,从而导致无法使用的存档。 svnsync似乎是合理的,但是在远程服务器上需要额外的configuration步骤,而且看起来存档与实际的数据转储相比有些脆弱。 对于本质上是一次性的任务似乎也是过分的。 我正在寻找是否有办法通过rsync或sshpipe道运行svndump或hotcopy来在远程主机上创build“本地”存档。 一旦磁盘空间问题得到解决,备份必须是有效的,因为我需要它来进行恢复。

Robocopy,不要覆盖现有的文件,而是复制已更改/新的文件

是否有可能镜像这两个目录,而不会覆盖目标目录中的文件与新/更改/删除的文件。 像快照。 示例:将所有文件和子目录的源目录复制到目标目录,但如果目标目录包含源文件夹中的文件A.xls和A.xls ,则复制A.xls但保留先前的A在目的地目录中。 要保留以前的文件date戳或计数器可以添加到文件名。 复制后的示例: SomeDirectory | –A.xls | –A_20120701.xls | –A_20120920.xls 谢谢。

BackupPC超过72小时备份250GB的

我正在使用BackupPC来备份办公室的一些工作站。 特别是其中一个工作站与其他工作站相比,其数据量相当大,但总的来说并不是那么大(谈到250 GB的实际数据)。 BackupPC似乎永远支持这个系统(几天,即超过72小时+)。 所有工作站都通过networking上的autofs本地安装通过rsync进行备份。 基本上, autofs在工作站上挂载administrative C share ,然后BackupPC将它视为本地目录, cd到automount directory ,以及rsync的所有数据。 总体而言,速度缓慢,我一般将其归因于BackupPC速度较慢的硬件,但除了数据量较大的工作站之外,这种性能在所有工作站上都​​可以接受。 rsync flags: /usr/bin/rsync –numeric-ids –perms –owner –group -D –links –hard-links –times –block-size=2048 –recursive 这些是BackupPC设置的默认参数。 我在网上阅读了一些东西,指出坐骑可能会放慢速度 – 所以我改变了我的autofsconfiguration,以noatime标志挂载目录…没有区别。 我读了一些东西,指出rsync可能是罪魁祸首,因为它是如何检查文件…并build议切换到tar而不是。 所以我做了…但没有区别。 tar flags: tarPath="/bin/gtar" env LC_ALL=C $tarPath -c -v -f – -C $shareName+ –totals # where $shareName is the autofs mounted directory 这些是BackupPC设置的默认参数。 […]

我如何让GitLab删除旧的备份?

我使用rake任务为GitLab 6.8.2创build备份。 gitlab-rake gitlab:backup:create 在/etc/gitlab/gitlab.rb我添加了以下行: gitlab_rails['backup_keep_time'] = 60 这应该修剪超过60秒的备份。 我的期望是,第二次运行gitlab:backup:create会在60秒内删除第一个备份。 尽pipe输出的最后一行是 删除旧的备份…跳过 我如何configurationGitLab去实际删除旧的备份?

自我修复的档案文件格式与冗余

当我使用RAR时 ,我可以select添加一些额外的恢复数据 ,以便能够处理一个不完美的媒体 (认为​​软盘)。 它节省了我几天的时间,特别是在处理旧CD(划伤或reflection层被气泡损坏时)。 我也用Parchive以一种与“RAID”不同的方式用“奇偶校验”重新分配了几张CD。 所以,在DVD,外置硬盘和闪存的时代: 它还值得吗? 是否只有像Parchive这样的外部软件包,或者只有RAR才可以使用,因为存在各种更好的压缩格式 ? 我不想要一个完整的解决scheme,就像这里或这里所提到的那样, 理想情况下使用gunzip (stdin / stdout)

什么是Hyper-V虚拟映像的良好备份计划?

我有一个机器与Hyper-V(不是裸机版本 – Windows 2008操作系统版本),我们正在试验。 我很想从主机操作系统进行备份,而不是从每个虚拟机进行备份。 我希望能够简单地将虚拟驱动器和/或虚拟机复制到我的备份驱动器。 要做到这一点,我需要使用影复制​​服务…我明白…但如何? 使用RoboCopy应该很容易,但是RoboCopy不支持卷影复制服务。 接下来最好的事情是什么? 将这些计算机备份到另一个映射驱动器的最简单方法是什么?

IIS 7备份策略

我没有注意到这个post,但我正在寻找更多的细节。 我有两台运行Windows 2008 Server Web Edition的服务器,并且正在两台服务器上运行网站。 我希望能够将IIS设置反映到每个盒子上,以便在发生“服务器1”崩溃时,我可以login到“服务器2”并快速获取在“服务器1”上运行的所有站点。启动和运行。 这不是一个简单的镜像,因为我已经有“服务器2”上的网站需要保持运行,所以基本上我想从“服务器1”添加网站。 我相信我会对此有所评论,所以是的,我们的服务器可以处理增加的负载。 我也想远离讨论的DNS,所以请不要那样做。 我也意识到,我需要添加特定的IP到'服务器2'networking适配器,并没有问题,只要我可以减less其他手动任务,以获得更好的正常运行时间,并减less手动错误。 目前,我正在将数据库和代码备份到另一个数据库中,但正如您可以想象的那样,恢复是一个缓慢,手动且费力的过程,容易出错。 我正在寻找能够轻松恢复每个站点的所有设置。 例如:SSL证书,IP,站点代码的物理path,绑定,处理程序映射等等。我希望所有的应用程序池都可以恢复,就像使用正确的框架版本和pipe道模式的其他服务器一样。 据我所知,applicationHost.config容纳了大部分这些东西。 但是,如果我将站点添加到已经运行其他站点的Web服务器上,我会假设我无法replace这个文件,因为那意味着丢失了我所有的当前设置。 我也不太热衷于手动修改这个文件。 环顾四周后,我发现了微软的Web部署工具(learn.iis.net/page.aspx/346/web-deployment-tool/)的候选版本。 所以最后,现在你有一堆背景来这个问题: 有没有人有快速和(主要)自动添加网站到已经运行其他网站的IIS 7的任何经验? 有没有人用“appcmd add backup”方法和[Web Deployment Tool] [2]做到这一点,如果有的话,你有什么困难?