我有以下计划:互联网< – > elb1external < – >清漆< – > elb2internal < – > targetgroupofwebnodes 但是一些/ static / * / media / *会直接从elb1external路由到target组,因此我需要elb1和elb2指向同一个目标webNode组。 当我尝试从第二个ELB上的下拉列表中select它时,亚马逊networking控制台显示该组为灰色,但是我确实看到在networking上提及该scheme是可能的。 作为解决方法,我创build了targetgroupofwebnodes2,其中包含相同的服务器,但我只需要1个,下一个任务是自动调节,所以将会有一个自动调节组而不是目标组。 我必须使用CLI或通过Web控制台的方式吗? 谢谢!
AWS Code Commit是否支持限制克隆代码或将代码读取到特定的EC2 IP地址或受用户策略的限制? 要停止在非员工计算机上共享或克隆源代码? 代码提交也有一个Web界面,可以让你像Github一样下载源代码? AWS Code Commit有没有可能允许用户将源代码共享或复制到其他非工作PC的安全风险?
我有一个设置为使用HTTP2的AWS Ubuntu 16 Apache服务器。 我已经跟着每个教程,他们都说同样的事情: sudo apt-get install software-properties-common sudo add-apt-repository ppa:ondrej/apache2 sudo apt-get update sudo apt-get upgrade sudo a2enmod http2 我的虚拟主机文件: <VirtualHost *:443> Protocols h2 h2c http/1.1 ServerName clearvision-dev 然后sudo服务apache2重新启动 但是,当我去https://tools.keycdn.com/http2-testtesting我得到的错误: HTTP / 2testing结果www.clearvision-cm.com 负! www.clearvision-cm.com不支持HTTP / 2.0。 ALPN不受支持。 请你帮忙解释一下是怎么回事?
我正在使用CodeBuild 图片:aws / codebuild / nodejs:7.0.0 服务angular色:代码buid-some-service-role 在我的buildspec中运行以下命令 aws s3 sync ./webroot s3://s3-us-west-2.amazonaws.com/some-amazing-s3-bucket/test 这是桶政策: { "Version": "2012-10-17", "Id": "Policy1502332584348", "Statement": [ { "Sid": "Stmt1502332580996", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::123456789:role/service-role/code-buid-some-service-role" }, "Action": "s3:*", "Resource": [ "arn:aws:s3:::some-amazing-s3-bucket/*", "arn:aws:s3:::some-amazing-s3-bucket" ] } ] } 代码构build失败,与此: [Container] 2017/08/10 02:41:16 Running command aws s3 sync ./webroot s3://s3-us-west-2.amazonaws.com/some-amazing-s3-bucket/test fatal error: An […]
您可以使用ACM导入现有的证书,以供您的LoadBalancerListener通过CloudFormation使用? 在ACM 常见问题解答上 ,它并没有说明它可以在有关SSL导入的云计算上完成。 问:我可以导入第三方证书并将其用于AWS服务吗? 是。 如果您希望将第三方证书用于Amazon CloudFront或Elastic Load Balancing,则可以使用AWSpipe理控制台,AWS CLI或AWS Certificate Manager API将其导入到ACM中。 ACM不pipe理import证书的更新过程。 您可以使用AWSpipe理控制台来监控导入的证书的到期date,并导入新的第三方证书以replace即将到期的证书。 至于有关ACM的云端文件 。 它不提供属性来导入基于下面的属性在我的堆栈中使用的现有证书 Type: "AWS::CertificateManager::Certificate" Properties: DomainName: String DomainValidationOptions: – DomainValidationOptions SubjectAlternativeNames: – String Tags: – Resource Tag
我在S3上有一个静态网站,而cloudflare作为我的DNS提供商。 服务器日志收集在S3存储桶中。 但是,日志文件中的访问者IP地址指向了cloudflare服务器,而不是真正的访问者IP。 我知道如何使用EC2上的LAMP / LEMP堆栈,使用real_ip_header恢复原始访客IP。 文章 我怎样才能做到这一点(即恢复原来的访客IP)与S3 + cloudflare。 有没有一个桶政策,让我映射自定义标题(如CF连接IP)访客IP或我可以定制日志格式,以包括这个头?
我有一个使用nginx服务器(EC2)和NFS驱动器来存储CMS文件(EFS)的简单AWS云。 亚马逊有着名的信用,我在一个非常低的stream量云上没有信用。 经过调查发现,EC2正在淹没EFS的元数据请求。 我只是不知道如何以及为什么? 所有文件共有8GB的NFS,他们都是PHP文件。 静态文件被卸载到S3。 EC2和EFS之间的stream量大约是每秒1MB,但是元数据stream量是每秒5MB! 这就是每分钟100-300MB的元数据stream量! 在检查nfsstat并转储stream量后,发现有90%的stream量是GETATTR请求和响应。 但观察EC2,处理器几乎睡着了,所以处理5MB每秒听起来超现实。 不提1MB传输的5MB元数据。 我想做更多的search,但我的知识和谷歌已经结束,所以不知道从这里。 试图利用lsof和nsfstats,无法find世界上需要这么多的元数据。 任何帮助将非常感激。 编辑:如果你正在寻找一个解决scheme,因为这个或类似的原因用尽AWS EFS学分 – EFS学分是基于你正在采取的空间。 该解决scheme(来自AWS支持团队)将创build虚拟文件以增加您的贷项余额。 在我的情况下,通过命令添加50GB的“空”占用空间的技巧: dd if=/dev/zero of=/path/to/efs/dummyfile bs=1G count=10 以上将在EFS上创build10GB的“空”文件,这将增加您的信用
所以我的桶Alpha是在一个地区叫REGION1 。 我的桶Beta在不同的地区,我们称之为REGION2 。 我进入我的EC2实例,并使用此命令: aws s3 cp s3://Alpha/meh.txt ./meh.txt 有用! 到现在为止还挺好。 它完美的作品。 但是,当我做这个命令: aws s3 cp s3://Beta/qwe.txt ./qwe.txt 我收到以下错误信息: fatal error: An error occurred (400) when calling the HeadObject operation: Bad Request 上面的错误只能在我指定区域标志时才被修复。 这是为什么? 因为我认为无论区域如何,桶名都是唯一的,为什么我需要指定一个区域? 有没有办法阻止这种情况发生,而不指定区域? 也许是一个特殊的政策或什么? 谢谢。
我有两个PHP写的微服务A&B.端点是a.example.com和b.example.com。 这两种服务都需要公共访问。 另外,服务B在处理的时候对a.example.com做了很多curl请求。 这两种服务都在同一个AWS VPC上运行(在同一个专用networking中)。 我也有一个外部CDN(例如,Akamai)为每个端点。 devise1: Public and Service B make requests to A | V a.example.com | V CDN | V Public Load Balancer | V Web Servers for service A 更高的成本,因为AWS的带宽成本更高 服务A的更多保护,因为它在CDN后面 随着stream量到达云端并返回,服务B响应时间变慢 devise2: Public makes requests to A Service B makes requests to A | | VV a.example.com a-internal.example.com | | […]
使用数据pipe道从DynamoDB转储数据时,看起来像这样,使用小写数据types: {"id":{"n":"2918466"},"time":{"n":"1404783111.4180515"},"user":{"s":"46a1dfa6b6b07c72e57fa8c6be657d76cf31b80b"}} 但是当我使用DynamoDBstream进行stream式处理时,看起来像这样,使用大写数据types: {"id":{"N":"2918466"},"time":{"N":"1404783111.4180515"},"user":{"S":"46a1dfa6b6b07c72e57fa8c6be657d76cf31b80b"}} 这很令人讨厌,stream的输出和转储是不一样的。 我需要在同一个HQL查询中从两个源读取数据,所以我试图使情况相同。 有什么地方可以改变这个吗? 还是我需要parsingJSON并通过logging更改案例logging?