我有一个帐户有权pipe理S3(S3_User),另一个帐户pipe理云端(Cloud_Front_User)。 现在,我用S3_User创build了一个存储桶“bucketname”,并使用源自我的S3存储桶的Cloud_Front_User创build了一个分配。 当我尝试通过Cloudfront访问资源时,我得到了这个结果 <Error> <Code>AccessDenied</Code> <Message>Access Denied</Message> <RequestId>555667558C0B2698</RequestId> <HostId> QP0y2/XTsJqItm815aDsdoLTF853zMeEPUAykvxjzdFfU1WwfXHioa6CeLWmc96RDVJopBu+eLE= </HostId> </Error> 我已经设置了这个: http : //cl.ly/image/1s0I1H3A3p1N 但是当我点击“保存”,一段时间后,我收到一条错误消息,说它无法在S3存储桶上设置标识。 我认为这是因为我使用“Cloud_Front_User”pipe理CLoudFront,使用“S3_User”pipe理S3。 那么,如何手动设置存储桶上的S3策略以允许CloudFront访问s3? S3桶策略 { "Version": "2012-10-17", "Id": "PolicyForCloudFrontPrivateContent", "Statement": [ { "Sid": " Grant a CloudFront Origin Identity access to support private content", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::cloudfront:user/CloudFront Origin Access Identity E780000000000" }, "Action": "s3:GetObject", "Resource": "arn:aws:s3:::socialacademy/*" […]
我们有一个应用程序,它将在S3中向全球用户存储和提供大量数据,并将延迟降至最低。 因此,我们一直在使用Amazon CloudFront进行testing,并取得了令人满意的结果。 但是,我们需要一个精简的中间件层(做安全等),我们想把它放在EC2中。 由于安全限制,该中间件层将从S3 / CloudFront进行文件stream式传输: S3 / CloudFront – > EC2 – >客户端 我们可以在地理上分布EC2节点(美国东部/西部和爱尔兰),但问题是,欧盟的客户会打我们的美国服务器,并从那里获取数据,从而使CloudFront的性能优势大打折扣。 我一直在挖掘EC2文档,但是我找不到一个内置的方式来获得EC2的地理分布版本。 弹性负载平衡听起来像是要走的路,但我似乎无法find一种方式,基于路由指导…最好是,我们希望保持在EC2 / S3 / etc之外的东西的数量。 (出于显而易见的原因)。 任何想法如何在EC2 / S3框架内做到这一点? DNS /路由技巧? 谢谢!
试图使用AWS CLI下拉S3存储桶的内容,我得到以下内容: aws s3 cp –region us-east-1 s3://s3.amazonaws.com/my-bucket . –recursive A client error (AccessDenied) occurred when calling the ListObjects operation: Access Denied Completed 1 part(s) with … file(s) remaining 使用aws s3 sync同样失败。 用户策略是: { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": "s3:*", "Resource": ["arn:aws:s3:::*"] } ] } (我也试过各种限制性较弱的政策,但无济于事)。 我试过一个空的桶策略,也是这个桶策略: { "Id": "Policy1357935677554", "Statement": [ […]
我一直在拼命试图find一种方法来将我的AWS EFS文件系统备份到S3,但似乎找不到。 有几个EC2实例运行都可以访问提到的EFS。 为了减lessstream量,我已经尝试启动一个Lambda函数,将SSH连接到EFS实例并运行“aws s3 sync …”。 不幸的是,从Lambda服务进行SSH连接似乎不是一个好的生产就绪解决scheme。 我也试过调整DataPipeline,但是为备份启动额外的实例似乎也是一件麻烦事。 是不是有一些简单的方法来备份EFS到S3? 任何build议感激。
我试图使用EC2实例上预安装的Amazon官方工具将我的EC2实例备份到S3。 我很难得到同步命令从同步排除目录。 这个文档听起来像使用'–exclude'选项很容易。 但是,我一直无法得到它的工作。 我正在运行通过yum提供的最新版本: [root@HOSTNAME ~]# aws –version aws-cli/1.1.1 Python/2.6.8 Linux/3.4.57-48.42.amzn1.x86_64 这是我有麻烦的命令: aws s3 sync /var/www s3://backup-bucket/var/www/ –exclude '*.git/*' 我想从同步中排除名为“.git”的所有文件夹和这些文件夹中的所有文件。 从文档判断我给“ – 排除”模式应该工作。 但是,整个.git目录及其所有文件仍然同步。 以下是一个输出示例: upload: ../var/www/site/.git/objects/7b/e3cdf203d34a0d7eff30a96a78d20eacee8d77 to s3://backup-bucket/var/www/site/.git/objects/7b/e3cdf203d34a0d7eff30a96a78d20eacee8d77 我尝试了以下命令,这些命令都未能排除名为“.git”的文件夹: aws s3 sync /var/www s3://backup-bucket/var/www/ –exclude *.git/* aws s3 sync /var/www s3://backup-bucket/var/www/ –exclude */.git/* aws s3 sync /var/www s3://backup-bucket/var/www/ –exclude '.git' aws s3 sync […]
我已经多次阅读过这些协议,而且我找不到任何保证Amazon不会丢失或损坏数据的内容。 他们做出这样的保证吗? 我可以信任S3作为我的长期备份存储吗?
我正在build立一个networking应用程序,可能会满足亚马逊S3可以满足的大量存储需求。 我主要关心的是在服务器上使用API密钥,以及未经授权的人如何以某种方式利用服务器,获取密钥并使用它们销毁S3存储桶中的所有数据。 我应该采取什么策略来尽量减lessAPI密钥的潜在风险? 在预算有限的情况下,采用什么样的方法可以有效地支持中等规模的S3资产的备份?
我想开始使用S3和EC2来托pipe我公司的一些更简单的网站。 我希望能够识别与运行每个站点相关的所有成本(实例运行时成本+存储+数据传输),以便可以将成本分配(交叉收取)给我公司的业务部门。 如果所有网站都在单独的实例上运行,是否有可能以这种方式确定与每个网站相关的所有成本?
是否有一种简单的方法来删除一个Amazon S3存储桶,其中有成千上万的对象? 我已经尝试了s3cmd – recursion和–force,但它记忆膨胀,并已经运行了几天没有什么效果。
我正尝试使用以下命令将目录备份到预先存在的Amazon S3存储桶: duplicity –no-encryption system/ s3+http://MY_BUCKET_NAME/backup 不过,我一直得到以下错误: S3CreateError: S3CreateError: 409 Conflict <?xml version="1.0" encoding="UTF-8"?> <Error><Code>BucketAlreadyOwnedByYou</Code><Message>Your previous request to create the named bucket succeeded and you already own it.</Message><BucketName>vacationlabs</BucketName><RequestId>3C1B8C49469E3374</RequestId><HostId>4dU1TKf3Td6R0yvG9MaLKCYvQfwaCpdM8FUcv53aIOh0LeJ6wtVHHduPSTqjDwt0</HostId></Error> S3存储桶是空的,没有backup目录 这个桶在新加坡地区