我正在努力使用云arrays从我的S3存储桶中获取文件到我的EC2实例。 我有以下文件: "files" : { "/var/www/text.txt": { "source": "https://s3.amazonaws.com/bucket/test.txt", "mode": "000644", "owner" : "root", "group" : "root" }, "/var/temp/http.conf": { "source" : "https://s3.amazonaws.com/bucket/httpd.conf", "mode": "000644", "owner" : "root", "group" : "root" }, "/var/temp/mime-types.conf": { "source" : "https://s3.amazonaws.com/bucket/mime-types.conf", "mode": "000644", "owner" : "root", "group" : "root" } } 其中test.txt是文本“文本”,另外两个是configuration文件。 我已经更新了我的test.txt文件的权限,以便任何人都可以查看或下载,尝试使HTTP通过https,并试图删除其他两个文件。 到目前为止, /var/www/将会创build四个目录,而不是/var/temp/ 。 /var/www/error也会包含文件。 我觉得这应该只是工作,但事实并非如此。 难道我做错了什么? […]
我在这里和这里看到(在连接到你的Linux实例,如果你丢失你的私钥 )访问EC2实例,而不创build实例时创build的.pem文件。 我想确保我的EC2 没有.pem文件(我在本地机器上)可以访问它。 顺便说一句,我仍然在EC2的关键对(公众,指纹) 我该怎么做?
我有一个networking架构使用Apache作为前端和Nodejs作为后端。 我想将此体系结构迁移到AWS。 Node.js将成为Elastic Beanstalk,Apache将存储在Amazon S3上(它只存储静态文件)。 我使用这些指令将/ api URLpath映射到Apache的后端: <Location /api> ProxyPass http://localhost:8081/api </Location> 我想在AWS中使用相同的机制。 我发现Amazon S3不能做到这一点,因为它只是一个存储服务。 我发现Amazon CloudFront可以使用多个Amazon CloudFront Origins,可以是Amazon S3存储桶或Amazon Elastic Load Balancers 。 然后,我将使用Amazon EC2将我的Node.js应用程序托pipe到Amazon Load Balancer 最终的架构将是 – Amazon Elastic Load Balancer -> Amazon EC2 /api / / –>Amazon CloudFront-< \ else \ – Amazon S3 这种types的build筑是可能的吗? 如果是的话,在AWS中实现这种架构是否是最好的方法? 感谢大家的回应!
我是新来的EC2,我很困惑发生了什么事情。 我有一个安全组设置,允许全球访问多个端口(22,25,80,443,993)全部源0.0.0.0/0 我有我的服务监听这些端口 netstat -tNl Active Internet connections (only servers) Proto Recv-Q Send-Q Local Address Foreign Address State tcp 0 0 0.0.0.0:ssh 0.0.0.0:* LISTEN tcp 0 0 0.0.0.0:imaps 0.0.0.0:* LISTEN tcp 0 0 0.0.0.0:pop3s 0.0.0.0:* LISTEN tcp 0 0 0.0.0.0:pop3 0.0.0.0:* LISTEN tcp 0 0 0.0.0.0:imap2 0.0.0.0:* LISTEN tcp6 0 0 :::ssh :::* LISTEN tcp6 […]
我为一个有数以万计服务部署到EC2的组织工作。 其中一个服务正在向我的服务器发出请求。 我有它的IP地址,但我不知道它属于谁。 nslookup将返回一个AWS主机名,而不会显示分配给谁。 是否可以根据IP地址查找EC2服务的名称? 更新 :如果你要downvote,请解释为什么。 否则,我不能改善这个问题。
我计划使用一个36 vCPU EC2实例在Windows(7,10或服务器)上编译大型C ++项目。 由于成本高,这个实例只会在需要的时候运行,然后运行1-2个小时。 有时我们需要在C盘上进行维护,比如下载和安装软件,删除文件等。这可能需要一些时间,如果我们为此运行36个vCPU将会花费很多。 其实1个vCPU就足够了。 是否可以使用与C驱动器相同的磁盘用于多台EC2计算机? 这样我可以用1个vCPU实例进行维护。 机器不会同时运行。 唯一的区别是vCPU的数量。
自从我在AWS上build立一个服务器后,我几个月来一直注意到,我的实例几乎每天都会在UTC时间上午6点左右的正常时间突然降低空闲内存。 这是一个t2.nano实例,绰绰有余我的需要。 当时没有不正常的活动,通常没有连接到服务器(这是一个适度的个人网站)。 我创build了一个监视Python脚本的服务器来logging这个,并在内存下降时重新启动服务器: 2016-12-08 06:14:30,971 – AWS_Server_Watcher – INFO: Free memory: 280 MB 2016-12-08 06:16:31,096 – AWS_Server_Watcher – INFO: Free memory: 280 MB 2016-12-08 06:18:31,231 – AWS_Server_Watcher – INFO: Free memory: 280 MB 2016-12-08 06:20:31,365 – AWS_Server_Watcher – INFO: Free memory: 280 MB 2016-12-08 06:22:31,499 – AWS_Server_Watcher – INFO: Free memory: 280 MB 2016-12-08 […]
首先,我是AWS新手。 :)而我正试图做到以下几点: 有2个环境(蓝色和绿色),每个环境都有一个托pipe网站和API的EC2实例,以及一个Cloud Front发行版 Cloud Front是我网站的入口点,它处理所有的静态资源请求,并将PUT / POST / DELETE转发到Origin Server(EC2实例) 发布过程首先将最近对非生产环境的更改(在本例中为绿色)进行抽取,并使Cloud Front GREEN高速caching无效 caching失效完成后,我需要将www.site.com指向绿色环境(green.site.com)。 这可以通过pipe理DNS来完成,但是我想亚马逊有一些东西可以放在“这是什么东西? 放置在图像中,这样我就可以快速切换到另一个CloudFront分配,而无需等待DNS更改传播… 那么,我可以使用什么从AWS将请求路由到不同的云端? 谷歌search没有帮助…
我有一个带有encryptionEBS卷的AWS实例,位于/dev/sdb 。 我试图通过使用命令安装它: – name: format new volume filesystem: fstype=xfs dev=/dev/xvdb – name: edit fstab and mount the vol action: mount=/home/ec2-user/ name= src=/dev/xvdb opts=noatime fstype=xfs state=mounted 从这个答案的build议我已经在xvdb : https : xvdb 但是,我仍然得到错误: "msg": "Device /dev/xvdb not found." PS:我也得到这个错误/dev/sdb 。 这是我的ls -l /dev/sd* /dev/xv* lrwxrwxrwx 1 root root 4 Feb 10 06:45 /dev/sda -> xvda lrwxrwxrwx […]
我想创build一个ASG,这样我就可以将现有的EBS卷(因为我拥有这些卷上的持久数据)重用到通过ASG实例化的新EC2实例。 这可能吗? 更新从评论复制 为了澄清我原来的问题,我不想同时将EBS卷附加到两个EC2实例。 相反,当一个EC2实例终止时,我想用以前的EBS卷启动一个新的EC2实例,而不是创build一个全新的EBS卷