我目前有一个在不同城市有两个办事处的客户。 每个位置都有一个Watchguard。 他们需要一个备份解决scheme,所以我们提出了一个NAS来备份两台服务器。 问题是NAS将在其中一个办事处现场。 我试图找出将另一台服务器备份到NAS的最佳方法。 我的第一个虽然是build立一个站点到站点的VPN,我相信这是一个BOVPN。 通过文档阅读后,我担心它太多了。 我不希望用户之间真正的沟通,我只是希望服务器有通往NAS的隧道。 BOVPN是唯一的方法,因为它们需要在同一个“局域网”上进行备份? 如果是这样,是否有任何危险连接两个网站,因为他们现在可以看到彼此? 谢谢。
场景 :我是我公司的新pipe理员,拥有30TB(28使用)的单个卷,目前没有configuration备份(必须为什么我有这份工作)。 我正在寻找DR /异地备份机会,我联系过的几家备份公司要求我首先确定我的更改数据速率。 问题 :如何轻松确定我的更改数据速率(自上次备份以来更改过的文件)? 笔记 :我被告知,除了比较和树大小Pro可以做到这一点,但从我的研究,似乎这不是一个正确的说法。 Tree Size Pro支持也证实他们没有能力跟踪变化数据。 硬件:Dell PowerVault NX3200 软件:Windows Server Storage 2012 存储容量:30TB 谢谢!
我写了一个小脚本来处理我的zfs备份。 当我手工运行它,它运作良好: /root/bin/zfs-backup -k 7 -p zfs-auto-snap_daily -r vm/containers tank/backups 但是像这样在cron中运行它会抛出一个错误“文件系统”vm / containers“不存在”。 30 0 * * * root /root/bin/zfs-backup -k 7 -p zfs-auto-snap_daily -r vm/containers tank/backups
在运行许多不同版本的Windows服务器的许多不同的服务器上,我们使用AhsayOBM来备份到云和USB连接的外部硬盘,这些硬盘通常没有问题。 但是,一台运行Windows SBS 2011和AhsayOBM 7.7.0.0的服务器存在一个问题,即由于没有足够的可用存储容量,系统映像备份到USB连接的外部硬盘驱动器时出现故障。 受影响的硬盘驱动器: 总存储容量:931 GiB 报告的可用存储容量:321 GiB 报告的存储使用情况:610 GiB 实际存储使用情况:〜337 GiB 因此,这不会加起来 – 由于以pipe理员身份运行的WinDirStatvalidation,存在大约273 GiB的存储使用情况。 有趣的是,即使我们用相同的型号replace了硬盘,也发生了同样的情况。 截图: 更新2016/11/08 10:03回应Wraezor Sharp的评论: 受影响的驱动器/卷上未启用先前版本/卷影复制。 截图: 更新2016/11/09 09:12回复Wraezor Sharp的回答: 作为SYSTEM运行的WinDirStat报告相同: Windows SBS 2011没有系统保护选项:
在设置备份时,我正面临以下问题: Duply应该将一个目录(/ ruby-webapps / webapp-map / postgesqldata)备份到另一个本地备份目录(/ backup / webapp_database)。 为了build立configuration我使用了下面的duply config生成的puppet: 的/ etc / duply / webapp_database / CONF GPG_KEY='disabled' GPG_KEY_SIGN='disabled' TARGET='file:///backup/webapp_database' TARGET_USER='root' TARGET_PASS='' SOURCE='/' MAX_FULL_BACKUPS=4 MAX_FULLBKP_AGE=7D DUPL_PARAMS="$DUPL_PARAMS –full-if-older-than $MAX_FULLBKP_AGE " VOLSIZE=50 DUPL_PARAMS="$DUPL_PARAMS –volsize $VOLSIZE “ 在/ etc / duply / webapp_database /排除: + /ruby-webapps/webapp-map/postgesqldata – ** 运行后: duply lberg_database cleanup_backup_purgeFull –force 在备份用户的主目录中创build备份:@ root:/ […]
我在Hyper-v上安装了作为虚拟机的Exchange EDGE ROLE(Win 2016 std)。 当DPM 2016尝试备份该虚拟机时,我遇到了一个失败的错误 ,我跟踪到无法生成VSS快照的问题,因为ADAM(MSExchange)Writer失败,状态为11.(DPM三重奏vm主机上的Hyperv检查点,客户操作系统上使用VSS作者的VSS shapshot) 有没有人有类似的问题,没有太多的信息,如果你谷歌它,只关于registry键丢失,我有checkeh,这是可以在我instalation。 作家错误snfregistry 事件查看器
有很多数据做这个有什么问题吗? mysqldump … | gzip | s3cmd put – s3://bucket/file.sql.gz MySQL转储大小约为100GB。 如果gzip或s3cmd无法快速处理转储会发生什么? 它会溢出pipe道缓冲区吗?
如果我创build一个快照说: lvcreate –size 100M –snapshot –name homeSnap /dev/vg1/home 然后我备份这个快照: dd if=/dev/vg1/homeSnap of=/mnt/data/backup.img 然后创build一个新的逻辑卷 lvcreate –size 50G –name test vg1 然后将快照复制到新的逻辑驱动器: dd if=/mnt/data/backup.img of=/dev/vg1/test 现在说原来的/ dev / vg1 / home只有10G的大小。 / dev / vg1 / test是50G。 其他40G会发生什么事情,我可以正常使用这个,或者新的/ dev / vg1 / test只能变成10G,而我没有一些resize的function,我就会失去40G。
我已经看到各种post讨论使用dd创build驱动器的图像,只存储“使用的数据”。 在提出问题之前,让我们假设一些事情。 假设 克隆/映像驱动器是/ dev / sda / dev / sda是10TB / dev / sda上的已用空间为1TB 存储的图像是一些远程CIFS安装的位置 问题/问题 使用类似cp和–sparse=always选项与dd一起使用应该产生一个稀疏文件,以便该文件显示为1GB: cp –sparse=always <(dd if=/dev/sda bs=8M) /mnt/remote/location/disk.img 或者像下面的东西,应该压缩所有零空间: dd if=/dev/sda1 | gzip -c > /mnt/remote/location/disk.img.gz 那么, 一个稀疏的图像文件对恢复有什么影响呢? 传输的数据是1GB还是10GB,包括感知空/零空间? 这显然是评估潜在的networking负载和恢复时间的考虑因素。 附言我知道还有其他的select,如Clonezilla和类似ddrescue将允许恢复能力,但问题是具体关于在上下文中使用dd。 谢谢。
我在Amazon Glacier上使用CloudBerry备份。 迁移到新工作站后,恢复文件失败,出现以下错误。 我尝试使用CloudBerry S3访问冰川保险库,但同样的错误。 这怎么解决? 2017-03-12 14:49:28,760 [CL] [13] ERROR – Idly running finished with error for command Copy; Source:us-east-1/…../ (us-east-1/Archive/dgS_sEF8q1Fkqa4012rosbhUj9DMRi_0lcSgdQ); Destination:D:\Temp\ CloudBerryLab.Base.Exceptions.BadRequestException Invalid marker: null at rL.B(rG ) at rL.b(rG ) at rL.C(rG ) at rM.II(rG ) at aFG.aFI.MoveNext() at aFn.aFp.MoveNext() at System.Collections.Generic.List`1..ctor(IEnumerable`1 collection) at aFn.A(ICancelable ) at aFD.a(ICancelable ) at aFD.jV(ICancelable ) […]