昨天,我在AWS中build立了自己的第一个Autoscaling组。 我写了一个cloud-init / userdata脚本来安装我的应用程序,我testing了它40次,没有任何错误。 就在我回家之前,它突然停止了工作,新的事例从未变得健康,并在宽限期到期后最终终止。 今天早上我进来发现问题依然存在。 我SSH到一个实例,并看看在cloud-init-output.log文件,并发现以下内容: Err:1 http://ap-southeast-2.ec2.archive.ubuntu.com/ubuntu xenial InRelease Could not connect to ap-southeast-2.ec2.archive.ubuntu.com:80 (54.253.131.141), connection timed out [IP: 54.253.131.141 80] Err:2 http://ap-southeast-2.ec2.archive.ubuntu.com/ubuntu xenial-updates InRelease Unable to connect to ap-southeast-2.ec2.archive.ubuntu.com:http: [IP: 54.253.131.141 80] Err:3 http://ap-southeast-2.ec2.archive.ubuntu.com/ubuntu xenial-backports InRelease Unable to connect to ap-southeast-2.ec2.archive.ubuntu.com:http: [IP: 54.253.131.141 80] Err:4 http://security.ubuntu.com/ubuntu xenial-security InRelease Cannot initiate the connection […]
我有一个实例设置,在一个m4.4xlarge实例上总共安装了8个EBS驱动器,总共8TB大小的逻辑卷,我是在这样的设置下标记IOPS的基准,我想知道为什么我的IOPS低于什么可能,如果我做了计算的权利,我应该得到总计IOPS为2.4万,8个EBS驱动器,每个1000GB。 下面是我读取块大小为8kb的fio时得到的结果: fio –randrepeat=1 –ioengine=libaio –direct=1 –gtod_reduce=1 –name=test –filename=test –bs=8k –iodepth=64 –size=4G –readwrite=randrw –rwmixread=100 test: (g=0): rw=randrw, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=64 fio-2.2.10 Starting 1 process Jobs: 1 (f=1): https://forums.aws.amazon.com/ http://100.0% done 95776KB/0KB/0KB /s http://11.1K/0/0 iops https://forums.aws.amazon.com/ test: (groupid=0, jobs=1): err= 0: pid=83382: Thu Jul 20 11:14:30 2017 read : io=4096.0MB, bw=155419KB/s, iops=19427, runt= 26987msec cpu : […]
基本上,有没有办法通过API或AWS CLI来做这个 [1]? 我需要将这个设置自动化为新帐户,并且希望避免必须login到每个帐户才能启用它。 问候。 [1] http://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/configurecostallocreport.html#allocation-report
我收到来自aws的电子邮件,其中说我的aws s3存储桶被configuration为允许读取互联网上的任何人,并要求我查看ACL并加以保护。 基本上我的s3存储桶被用作云端分发的后端。 下面是我的s3桶,它们使用相同的策略应用了相同的ACL。 media-example-com font-example-com blog-example-com app-assets-example-com 共同政策如下适用于所有的桶。 { "Version": "2008-10-17", "Statement": [ { "Sid": "", "Effect": "Allow", "Principal": "*", "Action": "s3:GetObject", "Resource": "arn:aws:s3:::<bucket-name>-example-com/*" } ] } 以下是所有这些桶通用的ACL屏幕截图。 我不明白aws支持是什么意思,当它说这些桶configuration为允许从互联网读取访问。 在屏幕截图时,清除读访问是不允许的。
View post on imgur.com 我在AWS的一个客户端pipe理一个Web服务器集群,想知道为什么我的实例的Network In一直是Network Out的两倍。 这里也有类似的问题,但答案并不令人满意。 AWS心跳不会反映交通形态,互联网背景噪音也不会,我的用户也不会经常提出大量的请求。 我个人预计这个数字至less会被扭转。 HTTP请求很小,并且呈现的HTML不是。 到底是怎么回事? 我怎样才能更好地调查? 更新:我的应用程序是WordPress。 它正在从数据库和memcache(RDS和ElastiCache)中获取数据,以响应请求。 我的networking服务器没有被攻击。 访问日志与实际请求完全一致。
我有一个针对我的网站的多个子域名的EV证书。 允许的域名列表如下: cdn.subdomain.mydomain.com subdomain-staging.mydomain.com subdomain.mydomain.com 我想将具有自定义CNAME的Cloudfront CDN用作cdn.subdomain.mydomain.com和EV SSL证书。 但是,无论何时我试图在AWS Certificate Manager中导入它,我都会收到以下错误消息。 谁能帮我?
我有这个剧本来创buildec2实例,并希望通过标签来定位每个ec2创build,但不工作…当我运行剧本我不会得到任何错误,但不会得到创build。 — – name: Build or Check environment hosts: localhost connection: local become: yes vars_files: – ../vars/kafka-east.yml tasks: # name: launch kafka-east-1 ec2 instance – ec2: image: "{{ ami_id }}" key_name: "{{ key_name }}" instance_type: "{{ instance_type }}" instance_profile_name: "{{ instance_profile_name }}" region: us-east-1 network_interfaces: "{{ item.eni }}" with_items: – {eni: 'kafka_east_1', tag: 'kafka_east_1'} – […]
我有一个应用程序,可以看到来自世界各地的使用情况,大部分在欧盟。 但是,由于我们正在进行服务器移动/体系结构更改,我希望听到社区对以下情况的意见,以便找出哪些方法最适合用于向前移动。 我们使用Parse作为我们唯一的API端点,目前在Elastic Beanstalk上运行,这使我们能够相对快速地创build新的区域。 但是,每个parsing服务器与之通信的MongoDB都位于AWS爱尔兰。 考虑到复制这些数据既昂贵又复杂,我设想我们在一个地区有一个MongoDB,好一段时间。 由于这个限制,我一直在考虑以下两种情况 – 附有粗糙的图片。 这两种情况都涉及用户对Parse服务器和与MongoDB集群进行通信的分析服务器进行API调用。 1.分布式服务器。 这个想法有一个小的AWS服务器运行尽可能靠近用户,服务器将执行长距离回到数据库。 考虑一下澳大利亚的用户在悉尼的一台服务器上,以及在爱尔兰拨打数据库的AWS基础设施。 我预计AWS服务器 – AWS服务器将比选项2更快? 2.中央服务器(靠近Mongo群集)。 这个选项有服务器,有可能是内存较大,CPU放在与DB相同的区域意味着Server-Database之间的快速通信。 考虑到同一个澳大利亚用户; 他们将到达欧盟打Parse Server,它将执行数据库查找并将数据返回给Aus。 我预计这会比较慢,因为用户的路线可能比AWS-AWS慢。 分布式服务器在实践中我应该去select1(我会等待听到的回应)我预计执行以下,我很有兴趣听到你的想法: 分别在爱尔兰AWS t2.micro的世界范围内连接到全世界所有连接到MongoDB集群的3-4台t2.micro服务器。 使用Route 53 GUI在Latency和Server运行状况下创build场景映射路由stream量,以便在服务器崩溃时提供一些冗余。 将我的域名的CNAME指向负载平衡器的AWS URL / IP(我不确定这一点 – 您点击了什么端点以便AWS执行路由,它是负载平衡器吗? 希望这对你们中的一些人来说是有意义的,他们可能会提供一些build议。 非常感谢。
我有一个网站,scheme如下: networking< – > ExternalELB < – >光油< – > WWWnode 我正在尝试设置第二个InternalELB,因此该scheme将更改为: networking< – > ExternalELB < – >清漆< – > InternalELB < – > WWWnode 但是,当我应用新的configuration,我得到了301无限循环的前端! 🙁 可能是什么问题呢? WWWnode没有安装任何https证书,它只使用80端口,而ExternalELB将来自443&80的stream量传递给Varnish节点上的80。
我们有一个启用了服务器端渲染的单页面应用程序。 我们在AWS ELB上托pipe。 应用程序资源( js , css文件)在文件名中包含一个散列,用于控制客户端/代理端的caching,并且能够确保自从新版本到达后,我们的每个客户都将获得它的新版本。 要做得好,我们已经决定caching整个文件的标题,正文和页脚的一切。 这是预渲染(与所有组件)结果存储在caching中。 它工作得很好,但有一个问题。 无论我们使用什么样的部署策略,我们总是面对这个策略。 我们有两个实例,由于我们使用Rolling方法(这是AWS推荐的)将一个新构build部署到其中一个实例,所以我们使Memcache无效,但问题是:尚未更新的实例(以前的构build),正在工作(处理请求)。 这意味着如果旧的实例会比新的实例(有时候会发生什么)更快地接收到一个请求,那么我们将得到caching的老版本的文档,它指的是不存在的资源(在文件名中使用旧的散列) 。 我看到几个解决scheme:1.开始使用简单的文件名为资产(避免散列)2.不要使用memcache直到所有的实例更新,他们都不符合我们的要求。 有没有其他解决scheme?