我现在正在看着一个又一个的镜子,把一个镜子reflection到另一个镜子上,但是看起来我可能会跑到一堵砖墙上?
到目前为止,我已经能够将本地目录备份到S3存储桶,该部分工作的很好。 我真正的问题是,我试图通过支持基本镜像两个桶来创build一个S3存储桶备份。
当我尝试运行duply工具时,我收到以下输出:
sudo duply test backup Start duply v1.5.10, time is 2014-07-01 11:49:48. Using profile '/home/user/.duply/test'. Using installed duplicity version 0.6.23, python 2.7.6, gpg 1.4.16 (Home: ~/.gnupg), awk 'GNU Awk 4.0.1', bash '4.3.11(1)-release (i686-pc-linux-gnu)'. Signing disabled. Not GPG_KEY entries in config. Test - Encryption with passphrase (OK) Test - Decryption with passphrase (OK) Test - Compare (OK) Cleanup - Delete '/tmp/duply.17999.1404233388_*'(OK) --- Start running command PRE at 11:49:49.054 --- Skipping n/a script '/home/jmreicha/.duply/test/pre'. --- Finished state OK at 11:49:49.077 - Runtime 00:00:00.022 --- --- Start running command BKP at 11:49:49.098 --- Command line error: Two URLs specified. One argument should be a path. Enter 'duplicity --help' for help screen. 11:49:49.256 Task 'BKP' failed with exit code '2'. --- Finished state FAILED 'code 2' at 11:49:49.256 - Runtime 00:00:00.157 --- --- Start running command POST at 11:49:49.285 --- Skipping n/a script '/home/jmreicha/.duply/test/post'. --- Finished state OK at 11:49:49.308 - Runtime 00:00:00.022 ---
正如你所看到的,复制/复制期望一个本地文件path作为源。 如果它有助于诊断问题,我可以生成configuration。
是否有任何方法来获得重复/重复的运行备份一个S3存储桶作为另一个S3目标的来源? 如果不是, 哪些工具能够同步两个S3存储桶 ?
如果有人遇到这个问题,我find了一个解决方法。
首先,如果您在Windows上,需要将一个存储桶复制到另一个存储桶,则可以使用s3cmd Express 。 我跟s3cmd的一位开发人员交谈过,他提到大型桶的Linux / OSX版本s3cmd存在问题,所以他告诉我尽可能使用Express。
不幸的是我只有一个Linux的盒子,所以我最终使用aws cli 。 这与s3cmd非常相似,因为它们都依赖Python boto库。 同步存储桶的命令是:
aws s3 sync s3://mybucket s3://backup-mybucket
你可以附加--dryrun标志来testing你的命令,以确保它做你想要的。