我使用Bacula和S3进行备份。 我保持60天左右bacula卷。 使用重复性,因为我想使用卷的GPGencryption。 有什么办法做一个rsync风格同步使用重复? 我想要的是S3中的文件结构与我在bacula中的结构完全相同。 我通常会使用rsync –delete来做到这一点。
简短的答案是……有点。
可以退回并检索您的文件。 但是,如果您从Web界面查看Amazon存储桶,则只会看到备份存档,而不是您可以下载的实际文件。 这是Duplicity和Duply(简单Duplicity)进来的地方。
从服务器运行一个简单的命令(如duply myfirstback list会给你一个备份所有文件的列表。
duply myfirstback fetch <file on S3> <destination>运行duply myfirstback fetch <file on S3> <destination>将允许您检索单个文件或整个目录结构。
运行duply myfirstbackup status将为您提供所有完整备份和增量备份的列表。
然后,您可以重复说出从哪个备份集中检索文件。 例如: duply myfirstbackup fetch 'home/myhome/importantdirectory' ./home/myhome/restore 3D将从3天前的备份中恢复/ home / myhome / importantdirectory,并在/ home / myhome / restore中本地恢复它“时间格式”部分)
怎么样
假设你将在Linux操作系统上,你可以使用Duply和Duplicity来简化你的服务器数据到S3的encryption和增量备份。
先决条件:python-lockfile,librsync,boto,duplicity,duply
Duply的configuration文件可以将你的Duplicity控制在/root/.duply/中
这只是一个创build备份configuration的问题,可以通过发出命令duply myfirstbackup create来完成。
然后您可以在/root/.duply/myfirstbackup中编辑这两个文件(conf,exlude)。 这里是两个简单的例子:
/root/.duply/myfirstbackup/conf
GPG_PW='my_super_secret_password_which_cannot_lose!' TARGET='s3://s3.amazonaws.com/<bucketname>/my_backup_folder' TARGET_USER='AWS_ACCESS_ID' TARGET_PASS='AWS_ACCESS_SECRET' SOURCE='/' MAX_AGE=1M TEMP_DIR=/tmp
/root/.duply/myfirstbackup/exclude
+ /home/myhome **
以上将备份/ home / myhome中的所有内容并保留一个月的副本。 有关如何设置configuration的更多信息,请参阅duply文档,例如增量为60天。 您可以执行一些操作,例如每2小时增量设置一次完整备份。 你有很多的控制权。
最后一步是简单地确保你设置一个cronjob来运行这个,但是你经常想要的。 每日,每小时,每周等
Duply: http ://www.duply.net