我试图将服务器数据备份到S3,但没有成功。 下面是我在S3上开始备份的脚本。 我已经创build了一个使用IAM的用户,并授予了用户所有权限。 #!/bin/bash export AWS_ACCESS_KEY_ID="access key goes here" export AWS_SECRET_ACCESS_KEY="secrete key goes here" export PASSPHRASE="passphrase goes here" duplicity –no-encryption demo/* s3+http://s3.amazonaws.com/[backet-name] &>> backups.log AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" PASSPHRASE="" 以下是日志的输出: Import of duplicity.backends.dpbxbackend Failed: No module named dropbox Local and Remote metadata are synchronized, no sync needed. Last full backup date: none No signatures found, switching to […]
我在我公司的一些服务器上实施Google双因素身份validation。 在客户端计算机上configurationGoogle 2FA时,如果用户忘记主密码或失去访问他的软件令牌应用程序,将生成5个紧急代码。 我想将这些紧急代码保存在一些中心安全的地方,我正在考虑将它们放在亚马逊S3的一些只写的存储桶中。 你有没有做过吗? 你有更好的build议吗?
我创build了一个简单的nodejs脚本来处理S3中的文件,我希望它能在lambda上执行。 我的pipe理员在IAM中添加了我,可以完全访问lambda和S3。 但是,当我select“S3执行angular色”作为我的angular色时,AWS禁止了这个操作,并给我一个错误: is not authorized to perform: iam:PutRolePolicy on resource: role s3_exec_role 这是为什么? 这是否意味着我还需要其他访问?
我已经尝试过几个软件包(goofys,s3fs,fuse),一直没能find解决我的问题的方法。 我有一个S3桶,目前有几千个文件,并将继续增长。 大多数将S3映射到EC2的应用程序只能处理比我所处理的更小的脚印。 文件的交付不是我的select。 所有的文件都小于100KB。 我迄今发现的最大的问题是大量的文件。 我需要一个PHP脚本的方法来轮询文件列表寻找常见的模式,已知build立一个存储列表供将来参考。 即IMG-20160704_01.png在这种情况下,我正在查找包含20160704所有文件。 任何人有这个目前的工作解决scheme? EC2是Centos 6.5 谢谢。
我有以下政策: { "Version": "2012-10-17", "Statement": [ { "Sid": "AllowUserToSeeBucketListInTheConsole", "Action": [ "s3:GetBucketLocation", "s3:ListAllMyBuckets" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::*" ] }, { "Sid": "AllooUserFullAccessToBucket", "Effect": "Allow", "Action": [ "s3:*" ], "Resource": [ "arn:aws:s3:::mybucket/*" ] } ] } 通过密钥/秘密(使用Cloudberry Explorer)访问存储桶时,我可以: 列出所有的桶 列表,下载,上传和删除到mybucket ,但只有当这个也是在地方桶权限 : 要么 我需要添加另一个项目的策略,以消除桶级权限要求 : { "Sid": "AllooUserFullAccessToBucketPre", "Effect": "Allow", "Action": [ "s3:*" ], […]
NB:我是AWS noob。 我按照说明为我的域设置SES接收(不需要发送),以将传入的电子邮件写入S3存储桶。 该域名是通过Route 53进行pipe理和validation的(按照https://docs.aws.amazon.com/ses/latest/DeveloperGuide/receiving-email-getting-started-verify.html ),设置了MX&TXTlogging(根据https://docs.aws.amazon.com/ses/latest/DeveloperGuide/regions.html使用端点inbound-smtp.us-east-1.amazonaws.com),我设置了一个收据规则(as根据https://docs.aws.amazon.com/ses/latest/DeveloperGuide/receiving-email-getting-started-receipt-rule.html )为admin @(以及其他几个电子邮件地址,如postmaster @,hostmaster @,pipe理员@等),让SES设置桶权限并在桶上确认它们(按照https://docs.aws.amazon.com/ses/latest/DeveloperGuide/receiving-email-permissions.html )。 不使用encryption,垃圾邮件/病毒过滤或IP地址过滤。 规则集已启用。 我从我的存储桶中收到Amazon的原始邮件(AMAZON_SES_SETUP_NOTIFICATION)。 一切似乎configuration正确,但我没有收到S3桶中的电子邮件。 没有错误,没有任何CloudWatch(甚至没有监控SES的手段),没有反弹,什么都没有。 有任何想法吗?
我一直在寻找使用Amazon Elastic Transcoder来实现按需videostream的场景,现在已经有一段时间了。 转码成本和限制的variables对我来说是很清楚的。 我受限于我需要stream媒体带宽的可扩展性,最好是200Mbit / s的增量。 然而,我正在努力掌握stream媒体的成本。 从我所了解的文档中,我将使用Elastic Transcoder进行转码,将这些文件传输到Amazon S3,然后使用CloudFront提供内容。 使用计算器可轻松确定转码,存储成本和CloudFront成本。 我似乎无法find的是有关CloudFront + S3带宽的信息。 根据这份文件 ,CloudFront的带宽限制似乎是40Gbps。 我觉得很难相信我不会因为这种带宽使用而额外收费。 另外,我怀疑S3服务器/节点可以提供40Gbps连接。 所以真正的问题是:使用(Elastic Transcoder +)Amazon S3 + CloudFront的最大stream式传输带宽是多less? 如何以及何时会受到限制? 或者,CloudFront定价仅由出站数据传输量决定?
我有一个用户,我会打电话给阿尔弗雷德用户,附带的IAM政策如下 { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::my-bucket-name/*", "arn:aws:s3:::my-bucket-name/", "arn:aws:s3:::my-bucket-name" ] } ] } 在IAM模拟器中,使用这个策略,我得到GetObject的“Allowed”,这个ARN: arn:aws:s3:::my-bucket-name/my-object.xml 在CLI中,获取以下命令的AccessDenied: aws s3 cp s3://my-bucket-name/my-object.xml temp/my-object.xml 调用GetObject操作时发生客户端错误(AccessDenied):访问被拒绝 我已经看过所有我能想到的东西,但我无法解释这种差异。 我错过了什么? 我试过的东西 这里的“信誉”是指“AWS IAM访问密钥” IAM模拟器 – 这个工程 一套不同的IAM信誉 – 这是有效的 使用aws s3 ls s3://my-bucket-name/ – 这适用于Alfred的IAM信用和我的信用 将策略与另一个AWS账户中类似configuration的存储桶进行比较。 我可以说,这些政策是相同的。
我做了一大堆上传到S3,并且遇到了上限的速度,我不知道如何解决这个问题。 设置:Windows Server 2008 R2 x64,外部HD,使用基于Java的上传工具Jsh3ll和自定义的VBS脚本来closures作业。 一次运行一个进程,我总是被限制在4mbps左右。 我有FiOS在35 / 35mbps的速度,所以它不是一个彻底的限制。 而且,我可以运行并行实例,并可以一路高达35mbps,所以我知道这个问题不是网关/ nic / machine / amazon相关。 运行并行实例在某种程度上可以作为一种解决scheme,但却极大地增加了工作stream程的复杂性。 解决这个问题将使我的生活变得更加简单。 当我第一次这样做的时候,我正在玩弄一堆Windows TCP参数,并且能够简单地获得不受约束的带宽,但是它是不可重复的。 思考?
我期待着为S3做一些备份,并尽可能地减less带宽。 我正在看几个选项。 似乎librsync是低带宽远程备份的最佳解决scheme。 我一直在阅读如何librsync的作品。 而且似乎远程端需要计算它所比较的文件块(以及本地端)上的校验和。 我会假设S3不能做这些校验和计算,因为它只提供文件。 我也读过S3不支持将文件分成块。 它只能提供整个文件或没有任何东西。 如果这两个(或两者)这些陈述是真实的,将librsync实质上是无用的? 有人能帮我解释一下吗? 谢谢。