我已经在AWS论坛上发布了这个function( https://forums.aws.amazon.com/message.jspa?messageID=502441 )。 我想知道如果我在这里会更幸运。 我们有一个使用官方AWS EC2 DNS 172.16.0.23作为转发器的内部DNS设置。 间歇性地,转发器停止使用其内部IPparsingAWS主机名,并返回公有IP。 crontab中的脚本每分钟检查一次DNS,并在需要时重新启动服务以清除caching。 我们检查正确名称parsing的主机是一个RDS实例。 DNS软件是绑定版本9.7.0。 由于我们在另一个帐户的另一个实例上遇到同样的问题,因此此实例或帐户不是唯一的问题。 此外,这个特定的实例已经closures并重新启动,所以它似乎没有任何硬件问题,因为关机/重启应该将实例迁移到不同的硬件。 相同(未解决)的问题在这里: https : //forums.aws.amazon.com/thread.jspa?threadID=76515 有没有其他人有这个问题? 有人能指出我的方向是正确的吗? 谢谢,杰里米
我试图限制用户到一个单一的VPC。 我通过控制访问亚马逊VPC资源,并提出了以下政策,但它不起作用。 有人能指出它的错误吗? 我应该提到, IAM策略模拟器似乎认为在模拟设置中的条件键下设置VPC ARN后,策略是正确的。 (我已经用我的政策中的实际值replace了地区,帐户和vpc-id。) { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "ec2:*Vpc*", "ec2:*Subnet*", "ec2:*Gateway*", "ec2:*Vpn*", "ec2:*Route*", "ec2:*Address*", "ec2:*SecurityGroup*", "ec2:*NetworkAcl*", "ec2:*DhcpOptions*", "ec2:RunInstances", "ec2:StopInstances", "ec2:StartInstances", "ec2:TerminateInstances", "ec2:Describe*" ], "Resource": "*", "Condition": { "StringEquals": { "ec2:Vpc": "arn:aws:ec2:region:account:vpc/vpc-id" } } } ] } 谢谢。
我正在使用AWS,并且有一个通过VPN连接到本地networking的VPC。 我可以启动EC2实例,将它们放在各种AZ中的各个子网中,并通过内部IP连接到它们。 我也可以join他们的本地域名。 但是,我希望能够在AD域中根据IP地址自动将它们放入AD域中的特定组中。 因此,当我创build图像的新实例时,它将被join到域中,因为它具有特定的IP地址,将被添加到某个组。
我拥有一个t1.micro EC2实例。 Ubuntu发布升级之后,我得到了Apache 2.4.6,我开始注意到100%的CPU负载 top – 19:37:58 up 2:55, 2 users, load average: 3.90, 2.90, 1.82 Tasks: 95 total, 4 running, 91 sleeping, 0 stopped, 0 zombie %Cpu(s): 3.9 us, 7.2 sy, 0.0 ni, 0.0 id, 0.0 wa, 0.0 hi, 0.0 si, 88.9 st KiB Mem: 629976 total, 588412 used, 41564 free, 39412 buffers KiB […]
我不太了解路由和子网和vpc,我从来没有用过我的旧AWS账户。 在我的新AWS账户中,我启动了一个新的Amazon Linux AMI实例(ami-043a5034)。 它连接到的安全组包括允许端口22.VPC设置都是默认的,我认为这意味着它应该像没有VPC的“传统”风格的EC2configuration一样工作。 我正在使用刀-EC2gem版本0.8.0。 我的刀子创build命令是这样的(区域和其他设置由knife.rb指定) knife ec2 server create -r 'role[webserver]' -I 'ami-043a5034' -E development -G 'web-security-group' -N 'webserver1' 我也试过了 knife ec2 server create -r 'role[webserver]' -I 'ami-043a5034' -E development -g 'sg-abcdef12' -N 'webserver1' –associate-public-ip –subnet subnet-abcdef12 –server-connect-attribute public_ip_address 无论有没有服务器连接属性参数 一旦它创build了实例,它就停留在“等待sshd”(没有句点)。 我能够从terminalSSH和新的实例,以及亚马逊提供的Java工具,所以我知道它是公开的,但我不知道如何让刀/厨师正确连接完成引导新的实例。 我从哪说起呢? 我是否需要一个弹性IP,还是可以使用任何公共IP分配?
我在AWS Elastic Beanstalk实例上遇到问题,因此似乎无法上传6MB大小的PDF文件。 首先,让我提供更多的背景: 运行的应用程序是一个expression式引擎(EE)应用程序 upload_max_filesize设置为16M post_max_size被设置为32M max_execution_time设置为300 通过Elastic Beanstalk上的EE应用程序将file upload到Amazon S3存储桶。 我能够在1-2MB的区域成功上传PDF,但是当我尝试上传6MB文件时,它已经达到100%的上传速度,然后把我redirect到EE的主屏幕,并且文件没有被上传。 有谁知道或有任何想法,我不能上传6MB文件,因为上面的configurationvariables被设置为这样?
我有一个由AWS CloudFormation生成的堆栈,其中包含一个EC2实例(运行Ubuntu 14.04)和一个RDS(数据库)实例。 他们都在一个VPC内,其中包括一个木偶大师(不是云形成堆栈的一部分): —————– VPC ——————– +—–+ +—–+ +—————+ | EC2 | <—> | RDS | | Puppet master | +—–+ +—–+ +—————+ 我想伪装EC2节点,为Web服务器和包括数据库连接信息的应用程序编写一个configuration,其中一部分是RDS实例的内部主机名。 问题是,如果需要知道RDS节点的内部主机名,我该如何让puppetmaster为应用程序configuration编译模板。 我对这些技术大部分都是新手,特别是CloudFormation和Puppet。 到目前为止,我已经想到了一些解决scheme,但想要一些指导,并想知道我是否错过了一些东西。 使用CloudFormation模板中的UserData使其可用于EC2实例,以便将其添加到EC2 puppet代理上的Facter。 这似乎是错误的EC2节点正在向另一台机器的puppet报告。 在木偶大师上使用EC2 API来检查VPC中的RDS节点,并find正确的(通过标签也许?),但我不知道如何让Puppet调用EC2的API,并从它插入一个值到一个模板
现在,我有一个完全在EC2实例上的站点,包括所有静态文件,如css,js和图像。 我想知道处理移动它们的最佳方法。 例如,在给定的html页面的<HEAD> ,我有这个对.js文件的引用: <script src="js/somefile.js"></script> 我想避免的是不得不进入并更新这个(和其他一些)如下: <script src="https://SOMETHING.cloudfront.net/js/somefile.js"></script> 我并不担心将文件移到S3(但),但更多的是如何重写这些链接。 我想这应该有一些解决办法。 为了完整起见,我目前在EC3实例前面使用了一个负载平衡器(这也是我的SSL)。 我也使用路由53的DNS。 任何见解都会有帮助。
我正试图在Amazon的Elastic Beanstalk上部署一个rails应用程序。 我不是很了解networking/服务器环境,所以我通过阅读文档和研究堆栈中存在的任何技术来获取一些知识,所以如果我犯了错误,请耐心等待。 所以这是我想要实现的: 我想在Elastic Beanstalk上使用Docker部署我的Rails应用程序,在具有两个面向公众的子网和关联的RDS实例的VPC中启动我的实例。 到目前为止,我已经设置了堆栈,但是在部署时出现一个错误,指出我的EC2实例无法连接到Postgres RDS实例: [91mrake中止了! [0m [91mPG :: ConnectionBad:无法连接到服务器:没有这样的文件或目录服务器是否在本地运行,并接受Unix域套接字连接“/var/run/postgresql/.s.PGSQL.5432”? 所以,从本质上来说,我的感觉是,除了我的EC2实例无法访问我的RDS实例之外,我得到了很大的帮助。 我的猜测是,即使我试图确保将EC2实例和RDS实例添加到安全组本身允许端口5432(Postgres)上的传入stream量相同的安全组中,也存在不可满足的安全组。 我用我的Ip的CIDR添加了一个安全组,并可以确认数据库可以从我的机器上访问。 这意味着我在我的环境中指定的连接参数是正确的,并且与错误的凭证/configuration无关。 什么可能是我的EC2实例无法build立连接到我的RDS实例的罪魁祸首? 再一次,我几乎肯定了它在我的安全组设置中,但是我还没有能够缩小问题的根源。 如果您需要更多信息(为了简洁起见,我故意省略),请告诉我(例如VPC,EC2或RDS的安全组等)。
后续我原来的问题: 没有caching控制标题从AWS CloudFront与S3来源的文件 我使用AWS CloudFront以AWS S3为原点提供静态文件。 我尝试使用AWS Web控制台为我的对象设置Cache-Control标题,如我原始问题(上面的链接)中的答案中所述。 当我使用AWS S3链接访问文件时, 我已经可以看到我添加的标题 : Cache-Control:public,max-age = 31536000 。 问题是浏览器不尊重标题。 当我重新加载/刷新相同的链接,我得到一个304 – 未修改的响应,而不是一个200(caching)的响应。 我也尝试了max-age = 300 (没有公开 )的值,并尝试了内部的值,但我总是得到304响应。 我也尝试从S3添加Expires头,但结果相同。 如何让浏览器尊重caching头? 我想利用浏览器caching,并节省使用AWS的成本。 附加说明:我的S3存储桶未设置为静态网站托pipe。 以防万一,这与此有关。 编辑:下面是活的HTTP头 https://cdn.example.com/path/logo.png GET /path/logo.png HTTP/1.1 Host: cdn.example.com User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64; rv:45.0) Gecko/20100101 Firefox/45.0 Accept: image/png,image/*;q=0.8,*/*;q=0.5 Accept-Language: en-US,en;q=0.5 Accept-Encoding: gzip, deflate, br Referer: […]