我有一个在Amazon EC2上运行的实例,我变成了一个Web服务器。 现在我一直在看cloudwatch,但是我不知道这是否是正确的工具。 基本上我想知道服务器何时closures,无论出于何种原因。 也许服务器被黑客攻击,或者服务器出于任何原因closures,我想要得到一个通知。 我已经启用了clouwatch,并试图build立一个警报,但我只看到networkinginput或CPU使用情况,一个d metrix的东西。 现在我不知道这些是否会做到这一点。
我正在寻求优化我们的自动扩展EC2组的成本,让他们启动现货实例,而不是按需实例。 我真正想要的是能够将一些服务器作为按需实例保留在组中,而不pipe现货实例定价市场如何。 然后,我希望组中的任何其他服务器(高于configuration的最小值)成为现场实例。 我通常可以通过现场请求添加服务器。 我似乎无法find任何方法来做到这一点,我试图冲刷AWS文档。 看起来ASG既可以是点播也可以是点播,但不是混合。 我可以手动将按需实例添加到分配给自动缩放组的Elastic Load Balancer,但是不会将该服务器的负载包含在自动缩放测量和触发器中。 我想我可以input一个可笑的高出价,以确保我总能得到我需要的服务器,但是接下来我看看定价历史,偶尔会看到大的高峰。 AWS文档与自身的不一致,因为在一个地方它说,如果你input一个服务器的最小值,这个数字是“确保”在那里。 但是当你读到关于现货的例子时,没有保证。 现货的价格差异是令人信服的,所以我想尽可能地利用这一点,同时保持始终在线的基线。 这可能吗?
我想知道是否可以在AWS中平衡sftp服务器。 我有2台服务器,每台服务器都使用s3fs-fuse将相同的S3存储桶安装到挂载点上。 我的两个ec2实例都可以读取/写入到它们的挂载点,从S3中我可以看到来自两个服务器的文件。 我正在寻找的是有SFTP传输文件和使用Amazon S3来存储我的文件。 文件将被上传并每天下载。 https://github.com/s3fs-fuse/s3fs-fuse 至于我的下一步,我想知道如何负载均衡我的sftp服务器,以便当用户连接到特定的IP地址时,它将redirect到我的一个sftp服务器。 我看了一下弹性负载平衡器,但他们似乎只允许特定的端口。 我也调查过HAProxy,但我不确定解决scheme的安全性。 我必须考虑HIPAA合规性。 负载均衡器必须是静态IP地址,因为我们的供应商不支持DNS主机名 谢谢
使用CloudFormation,我想在现有的存储桶中设置AWS :: S3 :: Bucket中的一些属性。 换句话说,我不想创build桶,我只是想强制执行一些设置。 这里是我的云形成JSON的一个例子: "websitePreviewBucket": { "Type": "AWS::S3::Bucket", "Properties": { "AccessControl": "PublicRead", "VersioningConfiguration": { "Status": "Suspended" }, "BucketName": "preview.website.com", "WebsiteConfiguration": { "IndexDocument": "index.html", "ErrorDocument": "error.html" } } }, 毫不奇怪,这在云端控制台中失败了: The following resource(s) failed to create: [websitePreviewBucket]. preview.website.com already exists 我已经创build了bucket preview.website.com。 我的意思是,这个账户“拥有”那个桶。 我如何使用WebsiteConfiguration在现有存储桶上设置AccessControl和WebsiteConfiguration类的东西? 我看到另外一个问题提出类似的问题 ,但是没有合适的答案。
我想知道目前是否可以在ec2云上导入virtualbox虚拟机,我尝试过使用virtualbox vmdk,但是没有成功。 显然它是为VMware的vmdk文件devise的。 有一个技巧,我可以用来转换我的实例,并在亚马逊导入它? 谢谢 !
使用AMI克隆EC2实例(更改主机安全组)后,Amazon提供的mon-put-instance-data.pl脚本所报告的统计信息都不会在CloudWatch中显示。 我可以确认该脚本正在将数据报告给CloudWatch,但它并未显示在CloudWatch控制台中: # ./mon-put-instance-data.pl –aws-credential-file=/root/.aws-credentials –mem-util –disk-space-util –disk-path=/ –swap-util Successfully reported metrics to CloudWatch. Reference Id: xxxxxxxx-xxxx-xxxx-xxxx-93f25b4efbc7
我正在使用s3cmd上传到S3: # s3cmd put 1gb.bin s3://my-bucket/1gb.bin 1gb.bin -> s3://my-bucket/1gb.bin [1 of 1] 366706688 of 1073741824 34% in 371s 963.22 kB/s 我从Linode上传,根据支持(大约6 MB / s),具有50 Mb / s的传出带宽上限。 为什么我的S3上传速度如此之慢,我该如何改进呢? 更新: 通过SCP上传相同的文件到m1.medium EC2实例(从我的Linode到实例的EBS驱动器的SCP)根据iftop (由密码完成的任何压缩不是一个因素)提供约44 Mb / s。 Traceroute:这是一个traceroute到服务器上传到(根据tcpdump )。 #traceroute s3-1-w.amazonaws.com。 traceroute到s3-1-w.amazonaws.com。 (72.21.194.32),最多30跳,60字节的数据包 1 207.99.1.13(207.99.1.13)0.635 ms 0.743 ms 0.723 ms 2 207.99.53.41(207.99.53.41)0.683 ms 0.865 ms 0.915 ms […]
我在亚马逊S3上托pipe一个静态网站,并在亚马逊路线53上托pipeDNS。我希望我的网站可以通过IPv4和IPv6访问(因为时间久了)。 当我使用Route 53 AWSpipe理控制台为我的S3存储桶添加A (IPv4)“别名”logging时,系统会提示我使用我的S3存储桶的名称作为端点。 当我尝试添加AAAA (IPv6)“别名”logging时,我没有给出这样的选项: 尝试通过克隆现有的Alogging手动设置AAAAlogging后,创build一个错误: 我知道A “别名”logging将正确的IPv4 IP地址放入Route 53 DNS: 我不敢手动设置IPv6地址,因为我不认为有任何保证。 别名目标设置是亚马逊针对静态S3站点所规定的。 因此,我的问题是,亚马逊AWS是否支持通过IPv6访问S3静态网站,如果可以,我该如何设置?
在普通的EC2环境中,通过IAMangular色和凭证(从实例元数据自动提取)来pipe理对其他AWS资源的访问相当简单。 使用CloudFormation更容易,您可以在将特定应用程序angular色分配给实例时即时创buildangular色。 如果我想迁移到Docker并进行一种M对N的部署,那里有M台机器和N个应用程序,我应该如何限制对每个应用程序AWS资源的访问? 实例元数据可以被主机上的任何人访问,所以我希望每个应用程序能够在相同的部署环境中查看/修改其他每个应用程序的数据。 在此类环境中运行的应用程序容器提供安全证书的最佳做法是什么?
我在“经典”EC2(没有VPC)中设置了Amazon RDS实例。 我也有一个VPC的build立,持有我们的新的,迁移的应用程序等。 但是,似乎没有办法在数据库安全组中指定允许我的VPC实例连接的CIDR或EC2安全组的组合。 允许的安全组只是“经典”的安全组。 我找不到任何文件表明这是不可行的,但我也找不到任何文件。 谷歌search很多的结果是“其他方式”,例如VPC中的RDS实例和EC2中的实例。 我有相反的问题。 我是否正在查看VPC中的新实例的时间点,以使连接正常工作? 我知道我可以维持我的公开可用性要求,但是我想暂时允许我的VPC实例进行连接。