Articles of 亚马逊 EC2

无法访问弹性负载均衡器后面的AWS ec2实例

我一直在关注lynda.com的AWS基本培训,并且已经成功设置了一个EC2实例,但是当我尝试把它放在负载均衡器的后面时,我无法通过ELB的公共DNS访问它。 在AWS Load Balancer控制台上,它表示我的实例的状态是OutOfService。 根据教程,我为负载平衡器设置了健康检查,path为/heartbeat.php 。 我也有两个安全组织 。 第一个名为Load Balancer – Prod允许来自任何人的端口80上的HTTP通信。 我的负载平衡器属于这个安全组。 此外,我有一个名为Web Tier – Prod的安全组,它只允许来自Load Balancer – Prod安全组的端口80上的HTTPstream量,以及我自己的IP和MYSQLstream量的Web Tier – Prod安全组。 我可以使用自己的公共DNS访问实例,并且可以通过SSH访问它,但是我无法通过负载均衡器public DNS访问它。 当我ssh进入它和劈NGINX访问日志,我看到这个logging多次。 172.??.??.?? – – [26/Aug/2015:16:43:46 +0000] "GET /heartbeat.php HTTP/1.1" 401 203 "-" "ELB-HealthChecker/1.0" 我应该看到一个200状态代码,而不是401 203我猜。 我尝试改变/var/www/到777作为一个testingrecursion权限,但没有任何区别。

traceroute6 connect:networking不可达

我在Amazon EC2中运行的Ubuntu 14.04和Fedora 21上遇到了这个问题。 我有完整的局域网和互联网连接,我可以成功运行 traceroute gmail.com 但是运行 traceroute6 gmail.com 生产: 连接:networking无法访问 运行 tracepath6 gmail.com 得到 1:发送失败 这可能是无关的,但运行 tracepath gmail.com 在返回加载“无回复”行之前到达我的ISP。 我使用启用了IPv6的Engenius路由器,但禁用了IPv6传递。 有任何想法吗? ip -6 addr: 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 inet6 ::1/128 scope host valid_lft forever preferred_lft forever 5: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qlen 1000 inet6 fe80::216:3eff:fe0e:12ab/64 scope link valid_lft forever preferred_lft forever

为区域负载均衡和单个数据库deviseEC2

我之前已经构build了EC2托pipe解决scheme,但现在我正在构build的应用程序更先进,我希望能够看到我是否正确。 该系统正在托pipe一个移动应用程序API,其stream量可能会从北美各地涌入。 我们仍在缩小预期水平,但预计会有严重的交通。 主要的操作是数据库读取,但也包括比例较小的写入。 这是我期待的布局。 有没有严重的问题,或者我可以做些什么来改善? 大RDS实例存储的一切(实际大小取决于研究的stream量) 弹性负载平衡器将stream量引导至 不同区域和地区的小型实例在地理上分散负载 我们的API不包含任何静态内容,如图像,所以每个EC2实例可以指向核心RDS卷,负载平衡器可以在两者之间循环。 这样做是否聪明,还是我需要进入数据库主/从configuration? 尽pipe交通量预计会相当高,但我认为这不会太高。

在amazon webservice上扩展C盘

我试图扩大在亚马逊ec2上的Windows实例的C盘大小(大小为50 GB)。 我从正在运行的实例创build一个ami。 然后我使用新的ami创build了新的实例。 同时创build我已经select了80 GB的音量大小。 但是当我发现新的实例时,C盘大小仍然是50GB。 有人可以告诉我为什么新机器不显示80 GB?

弹性IP分配到另一个EC2即时?

如果我将弹性IP从一个EC2实例移动到另一个实例,是否会立即发生? 我在问这个问题,因为我有一个在没有负载平衡器的情况下在Elastic Beanstalk中托pipe的网站的情况。 因此,我的Route53被configuration为使我的域直接指向我的EC2实例的弹性IP。 因此,我不能按照build议进行正常的CNAME交换。 现在,我已经查看了Elastic Load Balancer的定价,并没有对它的要求,因为我的网站没有收到足够的stream量来保证它。 然而,我确实有一个要求,就是能够在没有停机时间的情况下发布新版本的网站,并且不必等待设置通过互联网传播。 我被告知可以重新分配弹性IP地址,所以当我发布我的网站的新版本时,我认为我可以做到以下几点: 创build一个新的EC2实例 将新版本的应用程序部署到新的EC2实例 检查新版本是否在新的EC2上工作 执行弹性IP地址交换以使新版本生效 closures旧的EC2实例 我担心切换弹性IP地址可能需要一些时间才能将用户引导到新实例。 另外,是否正在执行弹性IP交换,这是在AWS内发布新版网站的“标准”方式?

EC2 – 如何通过单个公共IP路由出站stream量

我有一个vpc公共子网中的3个Web服务器(ec2实例),它们都有EIP。 我有通常的互联网网关的路线,以确保这些实例将能够呼叫外部服务,负载平衡器(ELB)旋转这些实例之间的传入stream量。 主要问题是服务器上的应用程序将连接到很多外部服务/ API,但其中一些服务需要IP白名单。 我们现在要做的就是给一个实例分配一个EIP,去上述服务的控制面板,添加新的EIP并继续运行,但是我们达到了一个限制,无论是在我们账户可用的EIP数量上(是的,我知道它可能会受到冲击,但仍然),以及在这些外部服务中有多lessIP可以被列入白名单。 鉴于我们希望保持自动扩展的function,我想问一些关于如何通过单个EIP路由所有实例生成stream量的想法,而不会丢失当前的内部工作。 除非要使用DNS,否则一条固定的通向这些服务的特殊路线并不是很灵活,主要是因为我们无法预先知道所有的IP池。 我已经阅读了关于NAT网关的内容,但是我不确定架构中的Load Balacing部分是否仍然存在,Web服务器是否能够响应请求等。

亚马逊EC2networking连接设置

我有一个亚马逊VPC(同一地区/可用性区域)上的两个虚拟机 – 他们有相同的VPC和子网ID。 我应该能够使用从一个虚拟机的私人IP地址到另一个(原样),还是需要采取额外的步骤来实现这一点(假设安全组/ ufw不阻止我用于端口的stream量连接)。

如何通过步骤缩放策略避免重复的缩放?

使用EC2自动扩展function时,如果使用基于AWS / EC2度量标准(例如,CPUUtilization <= 30%)的警报禁用了详细CloudWatch监控的扩展策略(而不是简单的扩展策略)当我的自动伸缩组缩放时,它会在两个短时间内连续缩放,而不等待度量更新。 如何防止自动缩放组过度快速缩放以更新度量标准? 编辑:这是昨晚的缩放历史。 在5:15,5:17,5:19,5:21 UTC,由于CPU利用率较低,自动缩放比例缩小,即使CPU利用率仅在5:10,5:15和5:20处具有数据点在5:15数据点之后,缩放事件应该已经停止。 似乎没有办法调整步缩放政策规模的冷却时间(步骤扩大政策忽略默认冷却时间(= 600s),只有扩大政策估计实例热身)。

ec2实例时间漂移

最近我遇到了两个VPC中有时间漂移问题的实例。 我注意到,在同一个自动调节组中,时间服务器不具有*和+前缀,而与另一个具有准确时间的实例相比。 “+” – 良好的远程对等或服务器(包含在合并algorithm中) “*” – 目前用作主要参考的远程对等或服务器 时间漂移的EC2实例 $ ntpq -p remote refid st t when poll reach delay offset jitter ============================================================================== y.ns.gin.ntt.ne .STEP. 16 u – 1024 0 0.000 0.000 0.000 ns1.unico.com.a .STEP. 16 u – 1024 0 0.000 0.000 0.000 saul.foodworks. .STEP. 16 u – 1024 0 0.000 0.000 0.000 b.pool.ntp.uq.e .STEP. […]

将数据移至Amazon EC2

我有一个Amazon EC2实例正在运行,并且正在尝试将文件从另一个Web服务器移动到EC2 。 我在EC2上使用wget获取和30GB Zip文件 。 在EC2上运行速度为100KB / s到150KB / s。 预计在2天10小时内完成。 有没有更快的方式上传这个大小的文件到EC2? 亚马逊有一个服务器,这将使这更容易? 我search了这一个,去了亚马逊的页面,所有我可以很好的工具/服务上传文件到S3和亚马逊Snowbowl,我认为是一个30GB的解决scheme太大了。 谢谢!