Articles of 备份

我可以压缩encryption文件吗?

我有一个encryption的文件(AES对称encryption)。为了备份和节省磁盘空间,我可以压缩(无损)的文件,而不必担心搞乱解密? 如果是这样,你能推荐一些好的压缩程序来达到这个目的吗?

备份通过afpd导出的sparsebundle的安全方法是什么?

我使用许多OSX客户端机器,通过TimeMachine备份到Ubuntu Linux文件服务器上的AFP共享,由netatalk / afpd导出。 这些客户每天在任意时间备份。 服务器上还有其他重要的非TimeMachine AFP共享。 在服务器上,TimeMachine备份表示为sparsebundles (一种涉及许多“band”的数据存储格式),存储在标准的EXT4文件系统上。 在这个sparsebundle里面是一个带有TimeMachine使用的HFS +文件系统的磁盘映像,但是从服务器端来看,它只是一个带文件和一些顶级元数据的集合。 rsnapshot在服务器上每4小时运行一次,并将sparsebundle波段文件和元数据备份到可移动介质(用于非现场存储)。 因此rsnapshot也是在一天的任意时间备份这些稀疏捆绑带。 rsnapshot使用rsync来执行复制。 问题是,如果在客户端机器安装了sparsebundle的情况下运行rsnapshot,我担心rsnapshot可能捕获sparsebundle的不一致状态,因为在备份过程中可能会更改这些band。 显然这不利于保证可恢复的备份! 我试图想办法解决这个问题。 在rsnapshot尝试执行备份时,sparsebundle未安装似乎很重要。 从服务器端来看,我现在看到的唯一方法是取消aftp守护进程,也许在等待sparsebundle被OSX客户端卸载之后。 这样做的不足之处还在于其他非TimeMachine AFP输出也离线,这对于用户是不可接受的。 据我所知,afpd不提供(轻松)添加或删除导出的方法 – 尽pipe一个选项可能是自动重写afpd的configuration文件以在rsnapshot备份期间禁用TM导出,但是这仍然会失败法新社股份很短。 有没有更好的办法?

备份/克隆btrfs分区

是否可以逐字备份btrfs分区(包括通过将快照树标记为COW来节省空间的所有共享结构)到另一个分区? 例如,我想备份我的根分区有几个btrfs子卷(/本身的快照)。 我能想到的唯一方法是使用像dd这样的块复制工具,但效率不高,因为我的分区只有20%的空间,我打算定期备份它。 我已经使用rsync逐步备份了所有内容,所以这不是另一个问题的解决方法。 我只需要一点点的克隆我的btrfs分区,而不必使用诸如dd的工具。 我知道ext3,例如,提供了一个转储和恢复工具。 这是我正在寻找的东西。 UPDATE 这里是一个更新,以澄清这一事实,我希望能够像在活动磁盘上(即我不想将转储文件存储在备份存储)上的方式访问备份存储上的文件。

最好的方法来处理与张力带恶化的DC600A磁带?

从80年代末到90年代中期,我可能有大约200个DC600A四分之一英寸磁带备份磁带。 我有2个驱动器能够读取DC600A磁带,但驱动器正在破坏磁带。 起初,我认为这是一个两个驱动器的问题,但经过几十个小时的调查,我现在可以肯定的是,在每个DC600A墨盒的橡胶张力带是如此衰弱,以至于他们咬(这往往当驱动电机转动墨盒绞盘时,会毁坏磁带)。 几件事情: 1)我拆开了几个墨盒,意识到虽然耗时,但处理乐队并不困难。 有谁知道我是否可以为这些购买replace乐队,只是解决这些问题? 2)如果我非常缓慢地手动移动墨盒绞盘,胶带不会破裂,它仍然会推进胶带 – 读取数据所需的动作。 我有什么机会修改tar,“st”(linux scsi磁带驱动程序)的源代码,或者其他一些软件堆栈来抓取数据以减慢scsi磁带驱动器的速度,无论是隐含的还是显式的,这样我可以读取的数据没有张力带打破? 我猜测电机产生的扭矩很可能不在软件控制范围之内,如果没有电气或机械的干预,我不能避免撕裂橡皮筋。 谢谢,Nate

备份大型数据库备份文件的目录最有效的方法是什么?

我们在Stack Exchange使用了NetBackup,我正在修改我们的备份策略以提高效率。 目前,我们使用SQL 2008 R2,并有SQL运行维护计划将数据备份到.bak文件。 一旦该文件被写入,我们将备份.bak文件存储的目录。 我们不使用NetBackup的SQL代理,因为我们使用.bak文件进行其他事情,而不仅仅是简单的备份。 我正在考虑每周/差异/ Cume轮换的时间表,但考虑到这些目录将有大量的文件,每天都会有新的保证,而且我们的系统会自动老化超过特定天数的备份,我认为标准的“办公文件服务器”scheme可能比其他方法效率低。 有没有一种“最有效率”的方式来处理这个问题?

Hadoop HDFS备份和DR策略

我们正在准备实施我们的第一个Hadoop集群。 因此,我们从四个节点的设置开始小。 (1个主节点和3个工作节点)每个节点将有6TB的存储空间。 (6 x 1TB磁盘)我们使用了一个SuperMicro 4节点机箱,所有四个节点共用一个4U机箱。 我们现在正在考虑如何备份这个解决scheme以进行灾难恢复。 (思考机架或站点丢失,而不是驱动器丢失)最好的解决scheme似乎是一个群集到群集的副本。 虽然我也读过关于复制NAS或SMB共享数据的人。 另外,我们将通过传统的备份方式来备份主节点。 我只关心HDFS数据。 这是我的问题: 1)对于群集到群集的副本,我可以设置具有大量存储的SINGLE节点群集来充当我的场外副本吗? 我不关心它的性能,只是存在和能够保存整个数据集。 (恢复时间不是一个问题,因为这个集群不是任务关键)复制是否可以安排,以便它只能运行一次,等等? 2)对于SMB或NAS选项,这是如何工作的? 目标磁盘是否需要格式化HDFS? 我需要全部备份三个工作节点中的每一个吗? 还是有一些智能脚本可以备份没有奇偶校验的数据集? 我不是很熟悉这个解决scheme,只能在网上看到它的参考。 我没有太多的运气find资源或信息。 我也对Hadoop HDFS的其他DR选项开放。 我们的目标是获取HDFS数据集的完整副本,以便我们可以使用它来从机架或站点丢失中恢复。 谢谢!

备份Hyper-V服务器?

我有一个运行以下内容的Hyper-V Server 2008(即Core)框: Windows 2008域控制器和文件服务器。 备份域控制器(也是Windows 2008)。 Ubuntu服务器Web服务器。 我想确保这是备份到外部(USB)硬盘,但我遇到了一些问题。 我无法将USB硬盘安装在任何客人(或我可以?)。 这意味着备份必须由主机完成。 文件服务器guest有几个物理磁盘挂载(即他们不是VHD文件)。 这意味着我不能从主机备份它们。 我应该如何支持这个呢? 更新 我要去尝试以下内容: 将外部磁盘插入主机,安装并共享。 在Windows PC上,使用WBADMIN对networking共享执行完整备份(例如\\HOST\USBDISK )。 我仍然想知道如何备份Ubuntu的盒子到外部磁盘。 我会就此提出另一个问题。 我还想知道如何去做脚本/调度 – 我不能使用内置的Windows备份计划,因为外部磁盘可能不可用。 我已经设法(暂时)掌握了另一台支持Hyper-V的PC,所以我会在周末尝试一个灾难恢复scheme。

连续备份可用于共享平面文件数据库吗?

我正在谈论一个数据集,其中包含数百个DBF格式数据文件,这些数据文件位于共享位置,部分或全部可能由多个networking用户打开或locking,而Microsoft的数据保护pipe理器每两小时复制一次。 这种情况下的“快照”可以依靠吗?

备份oracle到TAPE

我们的Oracle数据库在后期〜400 – 500 GB之间已经变得非常大,而且保存到文件系统对我们来说也是不可扩展的。 我们正在考虑使用RMAN备份到磁带(直接,而不是磁带)。 任何人都可以点亮这个? OS是Enterprise Linux(Redhat / Centos)和11g oracle。 编辑:我正在寻找一种使用RMAN与Linux命令串联的方式来实现这一点,因为功率是要一个简单的解决scheme。

Windows Server备份失败:没有足够的磁盘空间来创build卷影副本…

我们拥有全新的戴尔PowerEdge T320以及运行全新安装的Windows Server 2012 R2的PERC S110 RAID控制器。 RAID级别是带有两个NTFS分区的RAID 5,1TB的OS和7TB的数据。 该服务器是一个Active Directory域控制器和文件服务器。 它尚未填充文件共享数据,目前正在预生产。 在基本安装,DC升级和软件更新之后,立即连接了用于Windows Server Backup的2TB外部驱动器。 尝试创build初始Windows服务器备份(不包括当前为空的数据卷)时,备份立即失败,“没有足够的磁盘空间来创build卷影副本” 来自事件日志的完整消息: Log Name: Application Source: Microsoft-Windows-Backup Date: 8/2/2014 11:42:44 AM Event ID: 521 Task Category: None Level: Error User: SYSTEM Computer: PPSW2K12.ppsnew.local Description: The backup operation that started at '‎2014‎-‎08‎-‎02T15:42:23.021000000Z' has failed because the Volume Shadow Copy Service operation […]