我正在使用ELK堆栈进行服务器监视。 我的应用程序的来自AWS ELB的访问日志存储在AWS S3中。 我想用下面的input将它们添加到logstash中: input { s3 { access_key_id => "my_id" secret_access_key => "my_key" bucket => "my_bucket" region => "region" prefix => "AWSLogs/828557649675/elasticloadbalancing/eu-west-1/**/**/**/*.log" type => "elb" } } 但没有什么是logstash添加,我做错了什么? 我有另一种方式将它们添加到logstash? filter和输出部分似乎没问题,所以我不张贴它们。 注意:我正在使用logstash 2.1版本
你如何备份ec2的cloudwatch指标? 你如何以不同的尺度同时显示不同的测量结果,如cpu%和i / o? 如何将您的应用程序服务器指标(如“每小时查看产品”)与cloudwatch指标(每小时cpu)结合起来? 我首先考虑在s3中存储原始的cloudwatch指标,然后使用munin进行可视化。 但也许有更先进的方法比慕宁的静态图像更具交互性。 干杯, 一月
我有一个EC2实例。 它启动并运行一个亚马逊IP,看起来像这样://ec2-xxx-xxx-xxx-xxx.compute-1.amazonaws.com/ 我相信它能正常工作。 我买了一个域名,然后在亚马逊路由53中设置了一个“托pipe区域”,一旦我做了,就给了我一些名称服务器信息。 我去了我的域名注册商,并将这些名称放入名称服务器。 现在我卡住了。 如何将此托pipe区域与我的实例关联? 我想亚马逊主机,所以没关系。
我们刚刚开始我们的AWS存在。 我们需要多个VPC,每个VPC托pipe我们自己的服务器或客户的服务器。 每个VPC有4个子网 – 2个公共,2个私人,每个都有不同的AZ。 每个VPC有7个或更多的EC2实例。 我们通过AWS Web控制台进行pipe理。 但是,即使使用2个VPC,每个开发人员也可以看到所有的EC2实例和所有的子网,并且变得有点混乱。 理想情况下,我们想用IAM来限制VPC的可见性,但是我找不到VPC的ARN。 这是否存在? 或者,我们是否应该为每个VPC创build一个单独的AWS账户以保持独立? 但是,你如何pipe理用户?
我希望以Cloudfront作为CDN前端从S3存储桶提供图像,为此我尝试了以下操作: 我想达到的效果 ( 尝试2 ) – ( 随机丢失云端caching ) 我有以下设置来提供图像:( Cloudfront – > Nginx – > S3 ) <<<<<<<<样品S3标题>>>>>>>>>> <<<<<<<<示例Nginx – > S3头文件(已添加caching控制 )>>>>>>>>>> <<<<<<<<示例Cloudfront – > Nginx – > S3头文件>>>>>>>>>> 我目前正在使用( 尝试1 ) – ( 每次都按照预期点击云端 ) ** Cloudfront设置**: 尊重GET参数来支持URL( http://cdn.example.com/abc.jpg?v=1 ) 高速cachingTTL设置为157680000 ( 高速caching控制回退) 我在Attemp-2上搞了些什么? ( Cloudfront随机丢失 ) Url( http://cdn.example.com/abc.jpg )&Url( http://cdn.example.com/abc.jpg?v=1 )都会有相同的ETag […]
我正在尝试整合从S3存储桶获取的CloudFront分配的签名cookie,但获取访问被拒绝的错误消息: <Error> <Code>AccessDenied</Code> <Message>Access Denied</Message> <RequestId>BLAH BLAH</RequestId> <HostId>BLAH BLAH</HostId> </Error> 让我感到困惑的是,一些文件似乎一直工作,而其他人在我的自定义策略允许同一目录使用相同的签名的cookie失败。 例如:我在/projects/index.html上有一个文件,在/projects/src/Runtime.js上有一个文件,它不会使用自定义策略,通过在资源中使用通配符: http : //test.mydomain.com/projects/ * 这两个文件都设置为私人在S3上,我可以想到这两个文件之间的唯一区别是请求/projects/src/Runtime.js文件请求引用test.mydomain.com而不是mydomain.com这是第一个/projects/index.html请求的服务。 我知道这两个请求的cookie都被正确设置,并且这些自定义策略和签名对他们来说是有效的,因为当我弄乱他们并给他们错误的值时,我会得到不同的错误信息。 无论如何! 我的configuration如下: CloudFront设置: i.imgur.com/DMcUeDY.png (服务器默认链接限制,b) 我有一个替代的主机名,这是服务该文件的网站的子域(例如test.mydomain.com)。 它不是一个真正的CNAME条目,我没有它的证书 – 我通过本地/ etc / hosts条目使用该名称引用CloudFront。 CloudFront原点设置: i.imgur.com/ereGJ42.png (服务器默认链接限制,meh) 起源很简单 – 引用我的S3桶的根,我不限制桶,因为它还包含我想保持公开可用的文件。 我修改了default的行为: i.imgur.com/5N2RlxM.png (Serverfault链接限制,呃) 基本上打开了限制查看器访问。 可信签名者是s3存储桶的所有者的根帐户。 其余的CloudFront选项保持不变。 我有一个由亚马逊生成的CloudFront密钥对,我使用它提供给PHP(使用openssl_sign)亚马逊的片段来签署一个自定义策略访问整个目录。 我真的不能真正validation问题的地方在于真正模糊的“访问被拒绝”错误消息,但我敢肯定,它不是我签署cookie的方式。 我试过使用错误的值,并得到不同的错误,如“格式错误的签名”或“格式错误的政策”,所以我假设我的签名检查。 另外,正如我所提到的一些文件的工作。 我已经坚持了几天现在,任何帮助将不胜感激!
所以这是我的情况:我们是一个年轻的初创公司,我们决定尝试给Mesosphere DCOS社区版。 社区版使用模板在AWS CloudFormation上部署了一堆Master,Slaves和LB。 ( 我们的模板 )(编辑模板以使用现有的VPC导致错误:模板validation错误:模板格式错误:模板Unresolved resource dependencies [<target_vpc_id>] in the Resources block of the template ) 社区版有两个限制(我似乎无法find这些限制logging在哪里): 它不能被部署在现有的VPC上。 它为每个新的部署创build一个单一AZ的VPC。 现在,我们希望启用这个新的群集来与RDS进行通话。 显然,我们遇到了问题: RDS实例不能部署在单一AZ的VPC上 RDS VPC可以与DCOS VPC对等,但由于RDS实例只有一个端点(没有静态IP),必须从其他VPCparsing为本地地址而不是全局IP。 处理这种情况的最好方法是什么? 编辑:所以,我添加了一个私人的RDS实例,它的端点现在正确parsing到其本地IP地址从任何地方。 现在,我的DCOS群集位于VPC中, 10.0.0.0/16让我们调用这个VPC-A ,而我的RDS实例在VPC-B ,它是172.31.0.0/16 。 现在为了实现两个networking之间的通信,我在VPC-A和VPC-B之间增加了VPC对等。 接下来,我在VPC-B设置路由为:Destination:10.0.0.0/16 Targent: <vpc_peering_id> 在VPC-A中:目标:172.31.0.0/16目标: <vpc_peering_id> VPC-B的目标RDS实例的安全组设置入站所有通信所有端口CIDR:10.0.0.0/16 VPC-A源实例的安全组设置:出站:所有stream量所有端口CIDR:0.0.0.0/0 但是再一次,我仍然无法build立从VPC-A到VPC-B任何连接。 我还检查了属于VPC-A所有实例的安全组设置:允许所有出站通信。 而在VPC-B :所有来自10.0.0.0/16stream量都被允许在端口3306 。 这里发生了什么?
我真的很努力让Cloudfront和S3在S3上存储的video文件的头部添加Access-Control-Allow-Origin:*(对于iPhones上的内联video – 似乎在其他地方工作,但内联video只能在来自同一个域的iPhone,所以假设它是CORS相关的)。 只有存储桶中的第一个文件才有正确的标题 curl -I -H "Origin: https ://example.com" http://cdn.example.com/0000d723-5c73-4d71-953c-d7e29e70f17b.jpg HTTP/1.1 200 OK Content-Type: application/octet-stream Content-Length: 80962 Connection: keep-alive Date: Thu, 02 Jun 2016 00:38:50 GMT Access-Control-Allow-Origin: https://beek.co Access-Control-Allow-Methods: GET Access-Control-Max-Age: 3000 Access-Control-Allow-Credentials: true x-amz-meta-md5-hash: 18692618d1f6865694f08fb2dcd12201 Last-Modified: Wed, 15 Feb 2012 03:08:14 GMT ETag: "18692618d1f6865694f08fb2dcd12201" Accept-Ranges: bytes Server: AmazonS3 Vary: Origin,Access-Control-Request-Headers,Access-Control-Request-Method Age: 63 X-Cache: […]
我想在从Amazon Linux AMI(amzn-ami-2011.09.2.x86_64-ebs)派生的一些EC2主机上testingCeph (分布式networking存储和文件系统)。 内核版本是3.2,启用了btrfs。 但是与Ceph相关的内核configuration选项(CONFIG_CEPH_FS和CONFIG_BLK_DEV_RBD)似乎被禁用。 我必须做一个新的内核,并注册到亚马逊? 或者,有人知道更简单的方法吗?
我想知道自动缩放我的Web应用程序体系结构的可能选项。 我在架构师有web app(Tomcat),中间件(RabbitMQ),数据库(MongoDB),工人(独立的Java应用程序)。 现在我正在尝试基于CPU利用率进行扩展。 我可以自动扩展我的networking应用程序和工作人员,但我正面临着缩放rabbitmq的问题,因为我不知道如何传递负载到新instantinated rabbtimq服务器。 例如,我有2个Tomcat服务器正在运行。 只要我的RabbitMQ实例的CPU利用率大于80%,AWS就会添加一个新的RabbitMQ服务器。 但是我的Tomcat服务器不知道添加了一个新的RabbitMQ实例,所以他们一直只提到原来的RabbitMQ服务器,而不是新创build的那个。 我能做什么? 当兔子CPU利用率boost时,我应该自动缩放整个架构吗? 还是应该放弃完全自动扩展RabbitMQ的想法,并在部署的初始阶段创build所需的实例? 还有其他的select吗?