Articles of 备份

Windows Server备份与Acronis备份和恢复?

我需要将一台服务器(Windows 2008 R2)备份到外部驱动器上。 由于服务器有数以百万计的小文件,块级备份,而不是文件系统,是一个要求。 我可以使用Acronis Backup&Recovery或Windows Server Backup。 有没有什么有说服力的理由select一个呢? (我已经拥有Acronis软件,所以价格不是问题。)

Rackspace云网站到本地服务器的备份

我使用rackspace云网站,并没有在其服务器上使用SSH或RSYNC,但我可以访问SSHFS。 我想能够备份我的云网站到我的本地Ubuntu服务器,它有SSH,RSYNC等 到目前为止,我正在想办法做到这一点,最好的方法是使用以下方法在本地服务器上安装站点: sshfs [email protected]:/path-to-site/ ~/Sites_Mounted/site-name/ -o reconnect,cache=no,compression=yes,ServerAliveInterval=15 重新连接 – 如果连接断开,连接将重新连接 Cache = no – 因为我们希望实时备份不是旧的caching文件 压缩 – 最小化带宽使用 ServerAliceInterval – 由于SSHFS在很长一段时间后退出并崩溃 然后,我想着使用RSYNC命令将已复制的站点文件复制到本地服务器上的备份目录中,然后在下一次备份将在12小时后到期时,将备份目录复制/ RSYNC到一个新的备份目录(名称不同2012-01-01-sitename),然后使用RSYNC命令将远程服务器上的更改复制到包含旧/先前备份的新备份目录中。 我的问题是,这将进行工作吗? 如果是这样,我需要使用哪些命令,并将所有这些命令都包含在一个可以运行的.sh脚本中? 还是有一个更简单,更高效或更好的方法来做到这一点。 (我想我可以压缩整个网站的服务器上,下载,但这似乎有点资源沉重)

Windows还原失败,“无法find卷ID”错误,该怎么办?

在我的服务器上有3个磁盘,一个磁盘死了,我试图做一个恢复。 服务器看起来像这样: [DISK1] | C:, main system drive <– this one died [DISK2] | D:, data disk [DISK3] | Dedicated backup disk Windows备份设置为每天备份“所有”(系统,C:和D :)到专用备份磁盘。 现在我想恢复到一个新的(不同的),这应该是我的新C:驱动器和主系统磁盘。 我的程序是: 安装一个新的磁盘 使用DVD托盘中的Windows Server DVD启动计算机 从DVD启动,进入还原屏幕 select系统映像恢复 让它扫描可用的备份,select最新的一个,然后取消select我只想恢复C:(我不需要恢复D 🙂 但是,这以这个错误结束: “无法find卷ID(0x80070495)” 我的猜测是,在备份过程中,Windows以某种方式将卷名/ id存储在备份中,而现在我的新configuration并不完全反映该磁盘结构(replace磁盘不包​​含任何内容,尺寸更大,没有相同的分区等),它失败了。 但是,从我的angular度来看,备份/恢复系统应该预料到这一点,并根据需要重新格式化空磁盘。 或者是别的什么责怪? 我应该尝试什么?

赛门铁克BE:数据如何stream向备份/恢复到存储池?

我正在评估赛门铁克BackupExec 2012,并想知道备份数据如何从备份到存储池的服务器上stream动。 例如,我的BE服务器在A市,我备份的服务器在B市,我打算使用的存储池也位于B市。 在执行备份时,备份数据是否从B城市的服务器stream向A城市的BE服务器,然后返回到B城市的存储池,或者是否有可能将备份数据从B城市的服务器直接传输到存储设备在城市B的游泳池?

Riak集群备份10个节点到6个节点

我想知道如何备份一个由10个节点组成的集群,并在一个由6个节点组成的集群上进行恢复。 不pipe用于备份的技术(fsync,riakmanager,…)。 任何帮助,你可以给予不胜感激。

Linux以windows ssh / scp / sftp差异备份解决scheme?

这是设置: 大量的大文件(总数超过4GB,总数多TB)以简单的树形结构进行备份,无需从less数Linux机器压缩到Windows备份服务器。 每天都会生成几百个演出,而备份目前是通过WinSCP手动完成的。 我的目标是实现stream程的自动化,并有良好的日志logging进行监控。 写一次,很less读。 (异地将是LTO-4或5) 这个问题虽然,我尝试过的几乎每一个解决scheme都有一个直接的问题。 WinSCP脚本 – 不正确处理符号链接,导致无尽的文件传输循环。 手动GUI工作正常,(有一些可以忽略的错误) 对于win的rdiff-backup – 不能正确地支持备份服务器上已有的文件,而从头做20TB以上的备份并不是时间/资源可行的select。 (尝试每个stackexchange列出的技巧来识别现有的数据,而不用花8年时间来生成校验和) 通过cygwin的rsync – 由于缺乏差异,空间需求将迅速超过我们目前的能力。 我的下一个想法是在备份服务器(或FTP)上放置一个ssh服务器,并通过scp等在linux端执行自动化操作……尽pipe我真的很喜欢校验和差分支持。 另一个选项可能是从nix盒到备份服务器的samba。 我真的很感激任何关于这个问题的意见或指导。 我愿意接受build议,但我正在努力避免专有和封闭的解决scheme。 我不习惯这种混合的环境… 后续编辑:所以在与太阳下的每个选项搞乱后,通过CIFS安装窗口,然后使用您select的备份程序似乎是最可靠的方法去如果你是从尼克斯到Windows。 (有一些注意事项)这就是说,我只是作为一个权宜之计,直到我可以实现一个基于ZFS的NAS。 使用NFS / CIFS / rsync全部支持,从Windows,Mac或Linux到NAS都不会有任何问题。

每次在Dropbox目录中使用时,tar增量备份都将备份所有内容

我在10个月前(2013年1月27日)进行了增量备份,创build了一个.snar元数据文件。 现在,当我尝试使用增量备份 tar –create –file=dropbox_incremental_1.tar –listed-incremental=dropbox_0.snar Dropbox 该命令只是重新备份一切。 我不是Unix时间戳方面的专家,但是我注意到几乎所有的目录时间戳都比上次更改的时间更新。 对于我的实际文件,他们看起来像这样: Access: 2013-03-12 19:04:51.000000000 -0500 Modify: 2012-09-30 15:10:47.000000000 -0500 Change: 2013-03-12 19:04:51.306209672 -0500 “修改”时间戳看起来是正确的,但是在他们说的时候,文件绝对没有改变(至less没有做任何我所知道的)。 这些文件似乎仍然进入增量存档。 这里发生了什么事? 有没有办法告诉焦油来看看'修改'时间戳? 这不是应该做的吗?

在Windows 2012,Windows 2012R2上复制大文件时禁用文件caching

在less数HOSTS上备份Hyper-V存在很大的问题。 在软件备份期间,一些机器变得不可用,主机开始死亡等。我们追踪到这不是软件本身,而是文件复制。 只要从文件D复制到C大小为30GB的文件将在文件传输期间closuresHOST。 文件拷贝之前的内存使用量是64GB中使用的48GB。 当你开始传输30GB的文件时,使用内存变化,在1分钟内64个服务器中的64个开始爬行,甚至RDP,物理访问停止工作,直到文件复制完成。 所以在备份期间,服务器可能需要几个小时才能运行。 这是一个DELL服务器R515模式回写RAID控制器。 我在其他Windows 2012服务器上注意到了这一点。 我尝试使用一些旧的解决scheme,从2003年禁用caching,但都没有工作。 我已经在IBM和戴尔服务器上testing过,行为非常相似。 公羊使用量上升。 首先它以700MB / s的速度拷贝开始,然后在使用ram之后,它的速度变慢了。 所以问题是如何禁用文件caching或将其限制为正常值。 请不要提供使用robocopy或其他“复制”工具的build议,因为虽然可以通过使用外部软件来解决复制的问题,但我的问题实际上是由我没有影响的第三方软件所采取的备份。 我想“资源pipe理器”正常行事:-)

Docker卷的块级备份

我是Docker的新手,并试图评估在CentOS主机和容器上进行备份的方法和stream程。 从阅读大量关于Docker备份的文章,我得出以下结论: 没有人对Docker卷进行块级备份,只有文件级别的备份。 备份过程可以从主机或备份容器运行,但是如果从容器运行无法访问底层设备(按容器的定义)。 我完全理解第二点,但是(或为什么)不可能从卷获得一致的块级备份? 我认为LVM支持的卷可以从主机快照并适当备份。

文件数据备份,版本控制和复制的解决scheme

我们有越来越多的数据文件(.wav文件,图像文件等)是数据,即不是应用程序代码的一部分 – 用户上传和修改。 文件数量在1000年,总大小达到GB。 我们在世界各地(美国,欧盟,缅因州)拥有多个服务器集群。 在每个集群中,重要的是数据是在本地而不是从S3(数据文件不直接提供给客户端,而是由服务器处理)提供的。 我们希望在每个位置指定一个文件服务器,通过NFS将这些文件提供给同一个群集中的其他节点。 所以底线是: 通过应用程序上传的文件应该在S3上结束。 每个文件服务器节点都应该复制这些文件。 我们看到几个选项: 使用复制到S3进行备份/版本控制的origin文件服务器以及通过rsync (或类似)进行复制的节点。 同上,但奴隶复制S3使用类似S3工具或类似的东西。 不使用origin – 应用程序代码直接上传到S3 ,奴隶复制如上。 我们想知道哪个是推荐的解决scheme,哪些工具可用于复制部分(即在文件系统到文件系统类别以及在文件系统/ S3类别中)。