一段时间以来,我一直在尝试使用内置的服务器备份工具来备份服务器时遇到了问题:由于某种原因影子复制会失败,但是如果我只是select单独的驱动器,则会失败C :, D :)。 最近,它已经开始行动了,现在正在失败的蓝色与此: 我不知道是什么原因造成的,我一直在Google上search,但一直没有运气。 有关更多信息,请参阅事件日志中的几个快照,可能有所帮助: 最后,从图片3的详细信息窗口获得一个XML转储: Log Name: Microsoft-Windows-Backup Source: Microsoft-Windows-Backup Date: 6/10/2013 7:20:39 AM Event ID: 5 Task Category: None Level: Error Keywords: User: SYSTEM Computer: ****** Description: The backup operation that started at '2013-06-10T12:19:26.203012000Z' has failed with following error code '2147942487'. Please review the event details for a solution, and then […]
我有一大堆服务器为我们组(NIS,DHCP,CVS,NFS)做各种事情,所有这些都需要修补和更新。 显然,只是升级它们有点危险,所以我想创build一个操作系统和configuration的虚拟镜像,然后更新它 ,看看是否有什么破坏。 首先; 1)什么是最好的方式来做到这一点(即创build和运行虚拟图像)。 服务器运行CentOS和openSUSE。 如果需要的话,我可以购买特定的硬件来完成这个工作,不过我宁愿在工作站上运行它。 我不认为从资源的angular度来看,在服务器上运行虚拟机是一种真正的select。 2)我想这不会testing硬件依赖? 例如,如果新版本的SuperProgram2000在虚拟机上运行,那么不能保证它会在我的服务器上运行 – 有没有办法让虚拟机的行为像你的服务器必须解决的硬件configuration?
我们正在pipe理一台40台PC,每台存储容量高达3 TB。 每个周末,我们都会把这些数据复制到其他3台带有几个RAID5系统的电脑上,以便进行某种备份。 我们select了3台PC来分割networkingstream量。 但是, 当我们计划切换到每日增量备份时 ,我们可能不再需要这个了。 现在我们想改进/更新我们的整个“备份”系统,但是我们对于select什么硬件并不是一个好主意。 我认为我们需要大约100TB的容量才能完成一次完整备份。 但也许build立一个可扩展的解决scheme是有道理的,这样我们可以将磁盘空间加倍,如果需要的话。 你有什么样的硬件build议这个意图? 你会推荐一个100TB的NAS +另一个100TB的NAS作为“镜子”吗? 或者再一些服务器电脑与一个(或更多?)内部RAID5存储? 还有什么可以是一个很好的解决scheme?
我最近使用了Veeam备份和复制function来对VMware ESXi 5.1中运行的一堆虚拟机进行夜间备份。 看起来,虽然Veeam生成增量备份,但它通过读取磁盘上的所有内容并进行比较来实现。 很难在上面加上一个数字,但考虑到虚拟机的工作量很小,我怀疑这会使一个月内硬盘读取的字节数增加至less10倍。 我应该担心吗? 有没有更好的办法? 硬盘是热插拔RAID系统的一部分。
我想创build一个我的Ubuntu系统的备份。 把这个备份文件/镜像放在我的一台Web服务器上,然后用iPXE或gPXE把它恢复到多台服务器上。 我假设我需要一个可以通过PXE加载的专用应用程序或发行版。 任何build议?
我一直在这里查找和谷歌search,但我找不到我在找什么。 最近我把一个家伙的个人电脑格式化为Windows分区已经腐败了。 值得庆幸的是,在我之前的那个人每天都对用户数据进行备份。 现在我想添加相同的安全网回到干净的系统。 但是我不确定哪个工具是最适合的。 工具的工作方式在我眼中非常好。 它有一个月度轮换系统。 包含的备份文件夹 -dag 1 -dag 2 -… -dag31 在每个文件夹中,所有与用户有关的数据都被存储起来,但不是每天的完整备份; 它似乎保持差异。 所以即使这个工具已经运行了5年,它只需要大约10GB的空间。 逻辑是,如果之前已知的文件位置发生了变化,则会将该文件复制到备份位置,如果没有更改,则不会执行新的备份。 我很想安装相同的工具,但我找不到它。 任何有价值的replace也会有所帮助。 所以所有的build议都是受欢迎 最好是免费软件。
我正在对我的网站进行远程备份。 整个目录大约70GB,总共有大约500万个文件。 以下是我在备份服务器上运行的命令: rsync -ah -e ssh –delete –link-dest=/backups/2013.09.06 [email protected]:/var/www/backups/2013.09.07 进程运行超过48小时,只是挂起。 我已经在客户端(网站所在的web服务器)上运行了rsync进程的strace -p ,并且在一段时间之后,该进程定期停止在以= 0 (Timeout)结尾的select命令,然后继续。 open("mysite/files/1694201", O_RDONLY) = 3 fstat(3, {st_mode=S_IFREG|0644, st_size=10083, …}) = 0 read(3, "\r\n\320\224\320\265\321\201\321\217\321\202\321\214 \320\273\320\265\321\202, \321\210\320\265\321\201\321\202\321"…, 10083) = 10083 select(2, NULL, [1], [1], {60, 0}) = 1 (out [1], left {59, 999998}) write(1, "\374\17\0\7", 4) = 4 select(2, NULL, [1], [1], […]
我有一个NAS的一堆文件,我不想松散和一个250GB的空间异地的Linux VPS。 NAS运行FTPS服务器。 VPS运行Debian / Linux 我希望VPS将每周从FTPS复制/镜像到本地文件夹一次。 我的意思是: 在第一次运行时,将FTPS上指定文件夹中的所有文件复制到本地文件夹(包括子文件夹) 在第二次运行中,添加所有更新的文件(不同的大小或修改date) 删除VPS上FTPS服务器上不再可用的所有本地文件。 切勿触摸FTPS / NAS服务器上的内容 我确定必须有一些脚本或程序可以用来解决这个问题。 到目前为止我发现的那些是Windows或不支持FTPS。
我有一个Windows Azure的网站,我正在寻找这个网站的备份解决scheme。 我正在使用GIT来pipe理我的网站的源代码,所以如果发生不好的事情,很容易恢复应用程序代码,但是我正在努力为网站数据设置一些备份解决scheme(例如用户上传的图像) 有这种情况下的任何解决scheme? 如果在另一台服务器上运行的Windows备份可以设置备份网站,那将是非常好的,但是我认为这是不可能的。
我有一个粗略的想法,如何可能工作,但不知道是否有可能,因为我以前从来没有做过这样的事情。 所以我想知道有经验的人是否可以帮助我。 我目前有一台专用机器,我将其称为“机器A”,大约有100GB的数据。 我想每天或者每隔几天安全备份100GB的数据,哪一个效果最好。 因此,我的想法是在现场购买另一台机器并存储备份数据,使机器A的硬盘驱动器失效。 但是,每天手动将内容下载到新机器(将称为机器B)是非常耗时和重复的。 所以我想知道是否有可能使机器B自动从机器A下载某些目录? 也许一个使用Rsync的cron作业? 另外,因为它会下载大量的数据,我将如何去删除旧的备份,但仍然保持新的自动? 如果使用cronjob效率不高,而且还有另一种方法可以很容易地告诉我,我将非常感激。 提前致谢! 其他说明:我在机器A上使用CentOS,而在机器B上使用CentOS或Debian。