我相当无知的意见是,这是一种DNS问题,虽然我几个星期没有做任何DNS更改。 也许S3有一个问题,但似乎没有人报告和S3问题。 昨天晚上的某个时候,我们的S3存储桶中的文件只能偶尔通过我们通常使用的URL访问。 如果我使用本地亚马逊url,该文件是可靠的。 这是一个例子: 不可靠: http : //guiders.iguiders.com/Guider-1309959830.js 可访问https://s3.amazonaws.com/guiders.iguiders.com/Guider-1309959830.js http://guiders.iguiders.com.s3.amazonaws.com/Guider-1309959830.js guiders.iguiders.com是CNAME'd guiders.iguiders.com.s3.amazonaws.com但tracerout到2名返回不同的IP地址 – 我不知道这是否意义重大。 guiders.iguiders.com是可以在浏览器中,但我得到的“It Works”的Ubuntu默认www页面,这表明它实际上指向我们的EC2实例之一,即使DNS设置为指向亚马逊S3。 我不知道这可能是一个S3问题,但似乎更不可能只是突然不工作这个url。 此外,我知道这不是一个本地的问题(就像它不是我有DNS更换器病毒),因为我使用pingdom来检查到达该文件桶中的能力,每隔几分钟它告诉我服务器已closures,那么它是起来,那么它已经下降了。 任何想法的东西我应该尝试发现是什么问题?
我有一个EC2实例,我想要将数据同步到已安装的远程卷上作为备份。 rsync似乎是这样的方式,所以作为一个testing,我把我的testing文件(Postgres pg_dump文件),并使用rsync -v将其复制到装入的卷: [ec2-user work]$ rsync -v dump.sql.1 ../backup/dump.sql dump.sql.1 sent 821704315 bytes received 31 bytes 3416650.09 bytes/sec total size is 821603948 speedup is 1.00 然后,我再次运行它,期望看到最小的发送/接收的数字,因为它只是校验和。 代替… [ec2-user work]$ rsync -v dump.sql.1 ../backup/dump.sql dump.sql.1 sent 821704315 bytes received 31 bytes 3402502.47 bytes/sec total size is 821603948 speedup is 1.00 我是rsync新手,所以也许我错过了一些东西,但不是源和目标文件检查差异,然后补丁生成并应用到目的地的想法? 为什么这不会将“发送”的数据量减less到校验和的大小呢? 一些相关的背景: 挂载的卷使用s3fs <bucketname> […]
我在路由53 DNS上托pipe的域名。 亚马逊有一个指导,做301redirectwww。 到点www的裸体域名。 版本到设置了301的S3静态网站。 我的问题是,我怎么可以* .domain.com都有301 redirec裸体域名。 我猜想: 如何让所有通配符子域最终成为一个S3存储桶? 要么: 在www上使用CloudFront。 版本为S3的网站,并将CloudFront上的通配符子域名,但如何? 要么: 路由器53上有一些隐藏的设置,然后在哪里? 或者:使用EC2,最好不要暗示我这个,这个任务也太费钱了。 请指教。
我有一个移动应用程序,上传文件到服务器,需要能够下载它们。 我使用S3来保存文件,并有一个RoR后端来pipe理所有这些。 是否有可能有以下设置? RoR后端使用特定的“访问密钥和秘密访问密钥”来访问S3 API。 这个访问键可以访问列表中的对象,读取它们并创build新的对象。 当手机应用程序上传文件时,RoR后端将其保存到S3,并生成一个URL 电话下载文件,访问该URL。 它有权限读取这些文件,但不能写入,绝对没有权限列出(这是关键) 我希望手机只需使用正常的HTTP GET来获取文件,而不必处理S3 api。 这是非常可取的。 理想情况下,如果我可以这样做,以便手机还需要某种访问键/标记,但它可以简单地将其添加到URL作为参数,而不是通过S3 API,这将是伟大的。 这给了我一些额外的安全性,而不必将客户真正地与S3绑定,以防将来改变供应商。 AWS有很多configuration这些东西的选项,而且我不清楚哪个是最好的,哪些场景是可能的(我发现有一些选项可以生成时间有限的URL,这对我来说很棒,如果服务器可以给客户端一个只有几分钟有效的URL,万一URL被“泄漏”了,但是我一直无法弄清楚它是如何工作的) 任何指针将不胜感激!
只是一个简单的问题:可以清漆cachingS3对象? 或者它只适用于服务器上的静态文件?
是否有可能有更多的一个CNAME亚马逊的Web服务S3网站? 在文档中,据说bucket名称应该与CNAME相同。 mysite.com和www.mysite.com作为别名我需要创build两个桶? 太奇怪了
我使用AWS CLI手动创build了一个新的安全组。 我创build了入口规则,允许使用SSH(22)和MySQL(3306)的已知端口,仅通过公司的公共IP地址build立传入连接。 我还删除了允许所有出站连接的默认出口规则,而是创build了一个只允许传出连接到我公司的公共IP地址(但是所有端口)的出口规则。 这些规则最初运行良好,但现在我希望我的EC2虚拟机能够读取和写入S3。 不幸的是,S3命令目前失败。 (控制台输出:“错误:[Errno 110]连接超时”)我相信,原因是我最初的过度限制出口规则。 那么,我应该使用什么出口规则来允许我的AWS EC2实例读取和写入S3? networkingsearch在AWS论坛上发现了这个旧的讨论 。 如果我理解正确,看起来AWS拒绝发布S3 IP地址,因为他们希望能够灵活地更改内容。 如果这是真的,那么这是否不可能为S3指定出口规则? 这个AWS文档指出:“通常的做法是使用默认设置,允许任何出站stream量。” 人们使用默认的出站stream量,部分是为了启用与S3的连接? 注意:我只使用EC2-Classic,从不使用EC2-VPC。
我有一个服务器与更多的应用程序,并执行正常的shell命令来进行备份。 花了几天才完成。 试图安装重复。 但它告诉一些包没有find。 其在服务器上的Debian 2.6。 是否有体面的行业标准脚本,只是将目录结构和文件的压缩版本同步到S3,但只是增加了增量更改(新的和更改的文件)?
我的Amazon Elastic Beanstalk和Amazon S3安装程序有问题。 从EB实例我想加载一个文件与节点( fs.readFileSync ),我试了fs.readFileSync的configuration – 但他们没有工作,所以你是我最后的希望。 这是我的.ebextensions/key.config : Resources: AWSEBAutoScalingGroup: Metadata: AWS::CloudFormation::Authentication: S3Auth: type: S3 buckets: mybucket roleName: aws-elasticbeanstalk-ec2-role files: /var/app/dummy.txt: authentication: S3Auth source: https://s3.eu-central-1.amazonaws.com/mybucket/dummy.txt 这里从S3的桶政策 { "Version": "2008-10-17", "Id": "BeanstalkS3", "Statement": [ { "Sid": "e-123-123", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::123123:role/aws-elasticbeanstalk-ec2-role" }, "Action": "s3:PutObject", "Resource": "arn:aws:s3:::mybucket/resources/environments/logs/*" }, { "Sid": "e-123-123", "Effect": […]
我对设置Amazon Cloudfront和S3存储桶感到困惑。 我有我的桶设置,并使用wordpress WP卸载S3插件来存储在这个桶中的任何图像。 在媒体pipe理器中检查图像URL时,似乎所有的工作都正常,URL指向存储桶。 我已经设置了Cloudfront发行版,将S3存储桶作为原点。 但现在,当我直接访问我的Cloudfront分发URL时,(xxxxxxxxx.cloudfront.net),我只是得到以下页面: This XML file does not appear to have any style information associated with it. The document tree is shown below. <Error> <Code>AccessDenied</Code> <Message>Access Denied</Message> <RequestId>XXXXXXXXXXXXXX</RequestId> <HostId> xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx </HostId> </Error> 如果我访问我的Cloudfront发行版URL,我应该看到我的caching版本的网站,对不对? 相反,似乎我目前的分配只适用于图像的S3桶,但不是在实际的网站上。 那么我需要为相同的分布设置一个额外的来源? 要为实际域example.com和S3存储桶的其他来源有一个来源?