我在基于AWS的项目结构上工作。 并找出最适合我的: http://docs.aws.amazon.com/elasticbeanstalk/latest/dg/images/aeb-vpc-rds-topo.png 但是我所有的实例在本地都认为NGINX。 我使用NGINX作为代理。 我可以在这个scheme中转换NGINX的NAT吗? http://docs.aws.amazon.com/elasticbeanstalk/latest/dg/images/aeb-vpc-rds-topo.png 换句话说 – NGINX能做NAT吗? 或者我应该从我的实例中删除NGINX,并使用其他代理?
AWS设置我们已经build立了一个应用程序,我们已经设置了负载平衡器和自动扩展,以便在加载时增加更多的EC2实例。 我们目前在负载均衡器后面只有1个EC2实例(c4.2xlarge)。 stream量和负载testing在峰值时段,我们预计会收到大量stream量(每秒超过100万个请求),并且需要对此场景的AWS设置进行负载testing。 但是在开始设置负载testingenv之前,我们有以下问题。 AWS负载平衡器可以每秒处理这么多的stream量吗? 我们担心AWS会停止处理将其标记为拒绝服务攻击的请求。 有没有更好的方法来做这个设置(例如,添加多个负载平衡器)? 对这种负载进行负载testing的最佳方法是什么? 我们真的很感激任何帮助。
我正在定期将1TB EBS(amazon web services弹性块存储)卷作为备份。 在整个AZ(可用区域)变得不可用的情况下,我的灾难恢复计划是从同一地区的另一个AZ中的最新快照创build新的EBS卷。 我怎样才能知道创build新的EBS卷需要多长时间? 我有一个6小时的RTO(恢复时间目标)。 我可以用这种方法满足吗? 它可能不应该有任何区别,但是我在ap-southeast-2地区(即悉尼)。
我有一个成功托pipe在Amazon AMI实例上的API。 我知道这是肯定的,因为我可以在本地使用curl来使用它。 API托pipe在端口8080上。 这就是我打开的端口cmd的内容: su iptables -I INPUT -p tcp –dport 8080 -m state –state NEW -j ACCEPT service iptables save /etc/init.d/iptables restart 我也closures了防火墙: service iptables save service iptables stop chkconfig iptables off 这就是我的出/入规则在AWS控制台中的外观: 而我仍然无法通过服务器公共IP从外部访问我的应用程序。 为什么会这样? UPDATE /sbin/iptables -L : Chain INPUT (policy ACCEPT) target prot opt source destination Chain FORWARD (policy ACCEPT) target […]
请原谅我的无知,但有人可以给我一个具体的例子,说明如何/为什么我会使用一个而不是另一个。 我并没有问出这个问题,我已经做了大量的研究,但内部select对我来说毫无意义。 最好的doco我可以find关于这个问题
我将一个CSR(由PM生成)添加到新的AWS Load Balancer中。我有密钥等,但是我不确定页面设置中“证书名称”字段的重要性。 仅供我在AWS IAM证书pipe理器中引用是否是任意的? 还是必须与创buildCSR时使用的组织名称相匹配? 另外,我假设如果我在input证书名称时使用通配符,它会假定它是一个疯狂的域名证书? server.mydomain.com与* .mydomain.com?
我在AWS上使用AWS Certificate Manager(ACM)证书在https://demo.titusgt.com上有一个Web应用程序。 它运行良好,在浏览器中显示为安全站点,直到证书过期。 从AWS文档,我明白ACM证书应该自动更新,但是这没有发生。 所以我继续申请,并按照这个程序申请了一个新的ACM证书,域名所有者批准后,我将这个新的证书与我的Elastic Load Balancer按照这个程序关联起来,但是AWS仍然向我的浏览器提供旧的过期证书,所以它显示作为一个不安全的网站。 然后,我使用Let's Encrypt调配了一个新证书, 将其导入到AWS Certificate Manager中,并将其与Elastic Load Balancer相关联,但AWS仍在服务旧的过期证书。 我也检查了SSLLabs,它说证书已经过期。 我如何才能让AWS为新证书提供服务? 我错过了我的设置中的一个步骤?
我们正在使用Amazon EC2 / S3构buildRDP集群。 用户的主目录位于S3(单个存储桶)上,所有EC2节点使用S3FS挂载相同的S3存储桶。 每个EC2节点使用login到该节点的用户的相应主目录。 它确实有效,但速度很慢,有随机错误,是不可预测的。 EBS不是100 + TB所需的选项。 S3是正确的select? 如果不是,会是什么? 注意:节点运行Ubuntu Linux。
我有一个Python脚本,我必须在AWS 24/7上运行。 我怎样才能做到这一点? 我应该像在本地一样运行它: python3 main.py 或者我应该是: python3 main.py & ? 我把它放在主目录下有什么区别吗? 或者在子目录中? 这有什么关系吗?
我有一个CPU密集型数据处理应用程序,我想运行很多(〜100,000)input文件。 应用程序需要一个大的(〜20GB)数据文件才能运行。 我想要做的是 创build一个安装了我的应用程序和相关数据文件的EC2机器映像 启动大量(例如100)这个图像的实例 将我的input文件分成100个批次,并发送一个批次在每个实例上进行处理 我很难找出确保每个实例都可以访问大型数据文件的最佳方法。 数据文件太大,不适合AMI的根文件系统。 我可以使用块存储,但给定的块存储卷只能连接到一个实例,所以我需要100个克隆。 有什么方法可以创build一个自定义的图像,在根filsystem有更多的空间,以便我可以包含我的大型数据文件? 还是有更好的方法来解决这个问题?