我们已经使用tar来备份和压缩(gzip)我们的文件服务器上选定的目录,直到最近才有很好的结果。 我们的每一个备份都存储在镜像(RAID)硬盘上,并同时上传到Amazon S3存储桶以进行非现场存储。 由于近期我们的数据增长迅速,我们的备份也是如此。 本周,我们的备份上传一直在全天候运行,只是为了同步最近7天的新备份,但仍然没有完成。 获得更好的连接可以解决这个问题(目前我们不能这样做),但是我认为应该更好地创build一个真正的解决scheme,而不是寻求解决方法。 有什么替代策略,使我们远离多位数字的GB文件,仍然让我们使用tar ,我们可以用来备份我们的目录,这将减less同步文件所需的带宽量?
我想用tar cf – | ssh user@hostname tar xf – tar cf – | ssh user@hostname tar xf -复制一大组文件。 唯一的问题是,它会超过一个非常flaky的VPN链接。 是否有可能以这种方式build立一个可恢复的传输? 我会使用rsync ,但我不知道该怎么做,因为SSH密钥的组织方式意味着复制目标必须启动命令。
为了进行备份,我创build了一个脚本,将所有需要备份的文件夹归档,并将其发送到S3(通过s3cmd),然后在上载完成后将其删除。 我正在寻找一种方法来避免创build存档,然后删除它,因为我没有足够的空间临时存储存档! 可能吗? 这是我的脚本: DBLIST=`mysql -uMYSQL_USERNAME -pMYSQL_PASSWORD –events -ANe"SELECT GROUP_CONCAT(schema_name) FROM information_schema.schemata WHERE schema_name NOT IN ('information_schema','performance_schema')" | sed 's/,/ /g'` MYSQLDUMP_OPTIONS="-uMYSQL_USERNAME -pMYSQL_PASSWORD –single-transaction –routines –triggers" BACKUP_DEST="/home/backup/db" for DB in `echo "${DBLIST}"` do mysqldump ${MYSQLDUMP_OPTIONS} ${DB} | gzip -f > ${BACKUP_DEST}/${DB}.sql.gz & done wait tar -czvf /home/backup/db2/`date +\%G-\%m-\%d`_db.tar.gz ${BACKUP_DEST} s3cmd –reduced-redundancy put -r /home/backup/db2/ s3://MY-S3-BUCKET/ […]
我最近需要将大型的tar文件从一台Red Hat ES 5服务器转移到另一台(既没有networking连接),而是将外部USB硬盘转移到另一台。 最初我试图将〜90gig tar文件从服务器移动到外部驱动器。 这个传输工作,但当卸载驱动器时,我收到一个I / O错误拒绝设备断开连接,然后卸载,但不干净。 我试图做〜20-30gig文件,发生同样的事情。 打破了〜10-15g焦油球的东西被转移得很好。 我希望有人能提供一些见解,为什么我遇到了较大的tar文件(除了我自己的经验)的问题。 任何信息将是伟大的!
我正试图通过openssl将输出pipe道添加到当前的磁带备份脚本,目前我有: tar -czpvf /dev/nst0 /home /otherdir 所以joinopenssl给出了这个: tar czpvf – /home /otherdir | openssl aes-256-cbc -e -salt -pass file:/my_passwd > /dev/nst0 这不会给出任何错误,但是我可以在网上find解密的唯一方法是: dd if=/dev/nst0 conv=sync | openssl aes-256-cbc -d -salt -pass file:/my_passwd | tar xzpvf – 这给出了正确的文件列表,但我得到: bad decrypt 8340:error:06065064:digital envelope routines:EVP_DecryptFinal_ex:bad decrypt:evp_enc.c:461: 每次。 我能做些什么来解决这个问题?
我有一个Linux日志服务器在多个应用程序写入数据。 数据是以脉冲串的forms写入的,并且有许多不同的文件。 我需要对这个混乱做一个备份,最好保持尽可能多的文件版本之间的一致性,避免被截断的文件。 服务器上的数据总量约为100Gb。 我真正想要的(但不能)是closures,备份系统冷,然后重新启动它。 各种备份工具能够提供什么样的保证来防止并发修改? 他们什么时候“冻结”文件版本? 我正在寻找rsync,转储和焦油,但我打开其他(开源)的select。 更改应用程序或阻止写入备份可悲的是不是一个选项。 系统还没有运行LVM,但是我已经考虑过重build系统和快照。
我有一个大文件的文件夹。 这是一个每天都在变化的文件。 使用tar进行增量备份不是一个好主意,因为每天都会复制一个大文件(每个被更改的文件都被保存),进行增量备份。 有没有一个应用程序,使差异的两个二进制文件(差异备份)? 谢谢。
有没有可能根据tar文件知道什么时候需要使用tar或者gtar 例如 我有一些tar文件 sometarfile.tar 如何知道是否需要使用tar或者gtar命令? 是否有可能检查tar文件,并根据这个了解哪个命令运行?
我想创build一个encryption的焦油,但我也想有一个什么压缩的tar日志,我使用下面的命令: tar -cvvf – –files-from=/root/backup.cfg | openssl des3 -salt -k backuppass | dd of=/root/tmp/back.encrypted 但是我需要有一个tar的stdout日志。 我不知道如何得到它,因为如果我在tar命令中使用“>”命令,openssl的结果是不正确的。 我也检查了tar手册希望find一些选项来写一个文件的标准输出,但我什么也没有find。 任何帮助? 感谢和问候。
我有一个副本备份,我无法恢复与重复。 通过调用重复文件:/// path / to / backups / path / to / dir,它会返回“本地和远程元数据同步,不需要同步”。 但是/ path / to / dir是空的。 我解密了所有的备份卷,我能够查看和提取不同difftar文件中的文件。 我唯一的问题是有文件分区,并保存在文件命名的文件夹中。 任何人都可以给我一个简单的脚本或至less有一个提示如何解开这些difftar文件,所以我得到的实际文件,而不是分区的?