我正在寻找备份我的Linux服务器到Amazon S3使用重复。 我在这里find了一个很好的资源 ,帮助我设置,并使用在那里列出的基本脚本,现在复制到这里: #!/bin/sh # Export some ENV variables so you don't have to type anything export AWS_ACCESS_KEY_ID=[your-access-key-id] export AWS_SECRET_ACCESS_KEY=[your-secret-access-key] export PASSPHRASE=[your-gpg-passphrase] GPG_KEY=[your-gpg-key] # The source of your backup SOURCE=/ # The destination # Note that the bucket need not exist # but does need to be unique amongst all # Amazon S3 users. […]
我希望为同一大楼内的三台Windows XP机器build立一个自动化的备份系统,将其安装到WAN上的一台Linux服务器上。 我每隔几个月访问一台机器,制作一张裸机映像,以便进行裸机恢复。 我需要一种方法来自动备份用户文档(包括Outlook的邮箱文件)。 这是一个小型日托/学前class,因此需要一个低预算的项目。 现场每天都没有合格的系统pipe理员来处理问题。 备份需要在没有用户干预的情况下运行。 文件恢复需要远程完成(即,他们打电话给我,我把恢复的文件推回到他们的系统),或足够简单的非技术人员来操作。 正如我所看到的候选系统是Amanda , Bacula和BackupPC 。 阅读文档,我发现BackupPC可能不在运行,因为它没有执行卷快照服务(VSS)。 你对这些系统的实际经验是什么? 我还有其他的系统吗?
SharePoint 2007带有一个内置的备份工具,但是我已经听到了坏消息。 也就是说,你可以备份但不能恢复configuration数据库,一般来说恢复总是一个信念的考验。 我想知道是否有一些“最佳实践”或强大的备份(和还原)解决scheme?
我正在尝试更好地理解Active Directory如何处理架构更新,特别是如何确保程序的实际安全性,以及关键AD是多么的重要,并给出了需要更新的情况。 例如,Exchange 2007,OCS,SCOM都需要模式更改,这不仅仅是在考虑从Windows 2003(例如Windows 2003)到Windows 2008基础架构的重大转变时发生的事情。 我正在寻找的是关于模式更改的最佳退出计划的build议,以防万一它出错。 例如,在更新过程中使一个DC脱机是否可以接受,如果模式更新失败,那么使用它来回滚整个环境? 重新激活架构更新期间脱机的DC是否有任何问题?
我们使用单独的TRAC实例作为许多项目的门票系统,并且需要让他们每天多次离开现场进行灾难恢复。 什么是最好的方式来做到这一点? 有没有类似于svnsync的颠覆?
不带任何vCenter Server的独立ESXi(4.1)主机。 如何快速备份虚拟机并尽可能地保存存储? 我知道我可以访问ESXi控制台并使用标准的Unix cp命令,但是这样做会造成复制整个VMDK文件的问题,不仅是它们实际使用的空间, 因此,对于仅使用1 GB的30 GB VMDK,备份需要占用30 GB的空间,因此需要相应的时间。 是的,我知道精简configuration的虚拟磁盘,但是在物理复制时,它们往往performance得非常糟糕 ,并且/或者炸毁到完全configuration的大小; 另外,它们不被推荐用于实际的VM性能。 备份之前closures虚拟机是可以的(即,我不需要“活动”备份)。 但我需要一种方法来有效地复制它们; 是的,进行备份时自动关机/启动的方法也有帮助。 我只有ESXi; 没有服务控制台,没有vCenter Server …处理此任务的最佳方法是什么? 另外,还原呢?
我有一个旧的Windows 2000中的一个远程位置与T1连接和一个VPN到我的位置框。 我通常使用smb坐骑来传输文件,但是现在是时候停止服务器并将备份复制到我的位置。 我有大约40千兆字节(压缩)复制。 我准备好要花很长时间,但我有一些警告。 我需要限制带宽,以便terminal服务连接到站点不受影响 我希望能够恢复部分转移 有几个小文件和几个大文件(10-20千兆字节)。 我熟悉* nix平台上的rsync,但与Windows运行不好,我不知道它会真的保留部分传输的文件。 你用什么?
有时OS X告诉我,这是“准备备份…”在很长一段时间。 所花费的时间似乎与要备份的数据量无关。 “完成备份…”阶段也一样。 问题:当“准备备份…”和“完成备份…”时,OS X做了什么? 我知道这是计算出要备份的内容,然后logging这些变化,但是确实需要花费的时间应该与变化的数据量成比例。 有足够的空间磁盘空间(所以我认为它不会删除旧的备份)。 如果这有什么不同,我正在使用TimeCapsule。 没有什么是错的,我只是好奇。
我正在购买外置硬盘来备份我家里的电脑(最后!!)。 我希望能使用rsync。 我已经看到一个例子,(或似乎是)正是我想要的。 像这样的东西: rsync -aE –delete /path/to/what/I/want/to/backup /Volumes/FW200/Backups 但是,在查看rsync文档和示例等等时,事情看起来比这更复杂。 networking和守护进程和行话,哦,我的! 我假设没有这些东西是必要的,只要我只是从计算机到火线连接的外部驱动器的rsyncing。 我错了吗? 事情真的比这个无害的命令更复杂吗?
为了实现灾难恢复,我在不同的提供商上运行了2个LAMP Web服务器 – 一个高性能的在线服务器和一个低功耗的备份服务器。 目前,我每隔4小时将所有数据从活动服务器rsync同步到备份服务器。 这工作正常,但确实加载系统负载,而rsync计算出哪些文件已经改变。 由于所有的网站也住在git仓库,我想知道是否git推是一个更好的备份技术。 我不得不在git仓库中包含实时上传文件夹; 然后备份过程将是: live$ git add . live$ git commit -a -m "{data-time} snapshot" live$ git push backup live_branch 然后在备份服务器上build立一个提交钩子来检查每次推送。 每个网站的大小从50M到2GB不等。 我最终会得到大约50个独立的git回购。 这是比rsync更好的解决scheme吗? git更好地计算哪些文件已经改变? 是git推更高效的rsync 我忘了什么 谢谢! —-一些比较testing的数据—— 1)52MB文件夹,然后添加一个新的500K文件夹(主要是文本文件) rsync的 sent 1.47K bytes received 285.91K bytes total size is 44.03M speedup is 153.22 real 0m0.718s user 0m0.044s sys 0m0.084s […]