Duplicity和Amazon S3脚本

我正在寻找备份我的Linux服务器到Amazon S3使用重复。

我在这里find了一个很好的资源 ,帮助我设置,并使用在那里列出的基本脚本,现在复制到这里:

#!/bin/sh # Export some ENV variables so you don't have to type anything export AWS_ACCESS_KEY_ID=[your-access-key-id] export AWS_SECRET_ACCESS_KEY=[your-secret-access-key] export PASSPHRASE=[your-gpg-passphrase] GPG_KEY=[your-gpg-key] # The source of your backup SOURCE=/ # The destination # Note that the bucket need not exist # but does need to be unique amongst all # Amazon S3 users. So, choose wisely. DEST=s3+http://[your-bucket-name]/[backup-folder] duplicity \ --encrypt-key=${GPG_KEY} \ --sign-key=${GPG_KEY} \ --include=/boot \ --include=/etc \ --include=/home \ --include=/root \ --include=/var/lib/mysql \ --exclude=/** \ ${SOURCE} ${DEST} # Reset the ENV variables. Don't need them sitting around export AWS_ACCESS_KEY_ID= export AWS_SECRET_ACCESS_KEY= export PASSPHRASE= 

有没有其他人有口实的经验,他们可以改进这个脚本和/或分享最佳实践,以帮助创build一个更好的脚本?

我正在使用该脚本的一个变体进行备份。 我最近做了一些改变,试图在我的Amazon S3账单上存一些钱(个人服务器,否则我不会那么想)。

完整的脚本在这里 ,但我会列出下面所做的更改。

 --full-if-older-than 1M --volsize 250` 

第一个选项可以确保每个月不pipe用户进行一次完整备份。 这是有用的,因为这意味着我可以删除到最新的完整备份,如果我需要从S3中删除文件。

第二个选项减less了S3上文件副本存储的数量,这减less了对S3的请求数量,降低了成本。

备份运行后,我还添加了以下内容。 这会从S3中删除超过6个月的备份。

 duplicity remove-older-than 6M --force ${DEST}