我们购买了一台Amazon Direct Connect专线,将我们的数据中心连接到Amazon EC2实例。 亚马逊configuration思科或瞻博networking硬件( http://docs.aws.amazon.com/directconnect/latest/UserGuide/getstarted.html )。 但是,是否也可以使用Linux作为路由器(例如通过使用Quagga, http: //www.nongnu.org/quagga/)?
我将从如何描述我的应用程序开始。 如果我网站上的用户添加任务,则该任务被分解为多个子任务,数量可以从1到10个任务变化。 这10个任务被添加到SQS队列中。 我有一个运行node.js和docker的Ubuntu EC2实例。 Node.js被configuration为侦听队列,一旦它接收到子任务消息,它就会产生一个Docker容器,它将执行子任务。 一旦子任务完成,容器被销毁。 我有一个c4.2xlarge的EC2实例,可以完美地执行上述过程,完成1个任务(10个子任务)。 然而,当多个任务同时被添加时,问题就出现了。 假设我对10个任务进行了testing,这些任务被分解为100个子任务,服务器在启动容器期间经历了严重的负载。 我如何去扩展这样的环境? 我一直在考虑保留一个停止的EC2实例池,是“停止”,因为产生新实例的延迟非常高,我想尽快消耗队列中的子任务,而不必承担全天候运行服务器的成本。 在node.js中写入负载平衡器是基于队列中的资源/消息数量的最佳方式吗?
在AWS RDS Web控制台中,RDS实例名称(只读副本)旁边的红色条纹的含义是什么? 此外,在“复制”选项卡上,在副本主服务器和从服务器上,读取主实例名称以红色显示,但是我没有在任何地方看到任何错误,并且复制似乎正在工作(副本滞后0毫秒,错误中没有任何内容日志)。 谢谢你,杜尚
aws sts assume-role以Json格式返回证书。 有没有一个简单的方法(如把它们放在环境variables中),以便后续的调用aws可以使用它们? 基本上,我想像sudo -i的AWS。 注意:我目前正在使用envvariables中的当前凭证在我的笔记本电脑上执行此操作,但如果此解决scheme也适用于原始angular色凭证来自实例元数据的EC2实例,那将会很不错。
我似乎无法得到aws sync s3命令排除目录。 我从位于/ vz / root / 100的OpenVZ备份安装的文件系统。 我的命令是: aws s3 sync /vz/root/100 s3://[mybucket]/vz/root/100 –exclude="proc/*" –exclude="sys/*" 我努力了: –exclude="proc/" –exclude="/proc" –exclude="*/proc/*" –exclude="/vz/root/100/proc" 无论我做什么,同步过程仍然通过proc目录recursion。 我在2013年看到一个问题,排除不起作用,但根据他们“固定”。 # aws –version aws-cli/1.9.5 Python/2.6.6 Linux/2.6.32-042stab111.12 botocore/1.3.5 有任何想法吗?
试图了解API操作分组的API的成本。 一些API操作标签相当隐秘。 API运行RunInstances,RunInstances:0002和RunInstances:0202有什么区别?
更新:第二天一切正常!?! 所以我认为答案可能是你需要等待一段时间,无论是在创build一个新的IAM用户之后,还是在创build一个新的桶之后,在上传之前都可以工作。 我创build了一个专门的IAM用户,然后做了一个aws configure ,并给出了密钥,并指定了“欧盟西部1”地区。 我可以在〜/ .aws / config中看到正确的信息。 我尝试过aws s3 mb s3://backup但被告知它已经存在。 aws s3 ls证实没有。 然而aws s3 mb s3://backup-specialtest确实有效。 但是,当我尝试aws s3 cp test.tgz s3://backup-specialtest我得到: A client error (AccessDenied) occurred when calling the CreateMultipartUpload operation: Anonymous users cannot initiate multipart uploads. Please authenticate. 这不仅仅是大文件的问题。 我做了一个6字节的文本文件,并尝试上传aws s3 cp test.txt s3://backup-specialtest/但是得到: upload failed: ./test.txt to s3://backup-specialtest/test.txt A […]
有顺序编号主机名与自动缩放,但不是顺序杀死的服务器的逻辑方法? 因此,如果server13被杀死,server14 / 15处于活动状态,并且集群使用2个服务器进行升级,那么它将添加一个主机名为server13和server16的服务器?
我正在查看Pritunl企业版产品,并想知道是否可以使用它来设置以下场景: 我们的AWS环境由不同AWS区域的许多VPC组成。 我们希望使用Pritunl Enterprise为所有AWS VPC提供私有IP连接,而不pipe哪个Pritunl服务器客户端build立其VPN连接。 我们所有的Pritunl服务器都将在一个Pritunl集群中。 他们将共享相同的MongoDB数据库。 我们计划在每个被指定为“集线器”VPC的区域中至less部署一台Pritunl服务器,在我们的东 – 1和至less一个位于us-west-2的Pritunl服务器中的VPC中。 我们计划让AWS VPC将我们在一个地区的所有VPC与同一地区的“中心”VPC(在下图中显示为绿色虚线链接)进行对等。 我们希望使用Pritunl在我们的“集线器”VPC之间进行区域间VPC私有IP连接(在下图中显示为红色虚线链接)。 我在这里find了一个Pritunl AWS站点到站点设置指南: https ://medium.com/pritunl-tutorials/pritunl-advanced-tutorial-2be5cc57dff8,但是看起来他们正在创build两个VPN服务器。 这意味着客户需要根据所连接的Pritunl服务器连接到不同的端口号。 理想情况下,我们希望在我们的东 – 1和我们 – 西2的每个Pritunl主机上使用相同的服务器,以便客户端连接到的端口号相同。
我正在使用AWS Data Pipeline每天closures我的EC2服务器,但是我只想在周一到周五的工作周期间启动它们。 数据pipe道中的时间表似乎是相当基本的,所以谁也不知道是否有办法在星期一到星期五执行AWS Data Pipeline?