将文件从EC2 Web服务器上传到S3存储桶以进行内容传送的默认方式是什么?
在EC2 m1.large上,使用如下所示的AVG CPU利用率图表: 负荷平均值大于EC2计算单位(4)的数量怎么可能? cat /proc/loadavg 5.78 5.57 5.44 1/188 9388
我一直在评论Amazon S3和Amazon CloudFront的function和价格,以及其他提供商提供的类似服务。 有一件事情我不明白,为什么Amazon CloudFront定价似乎不像我看到的其他CDN那样需要存储成本。 我明白,我的文件被确定存储在S3上。 S3有存储成本。 但是,当我激活CloudFront时,根据我的理解,我的文件将被复制到许多地理位置分散的数据中心。 通过收取转账(加上请求)而不是存储,在我看来,亚马逊会在客户需要大量存储但转移不足的情况下受到伤害。 由于这看起来不正确,所以我想问一下:在理解Amazon CloudFront不收取存储费(超过S3存储成本)的情况下,我是否正确? 如果我是正确的,亚马逊是否对其CloudFront服务有任何存储限制,以防止他们从需要大量存储但使用很less带宽的客户那里损失资金?
我们正在评估在我们的所有ec2实例上使用Elastic IP,并且我们将比较公共EC2主机名和Route53(在实例引导期间对公共EC2主机名和dynamic更新DNS使用非常短的TTL)。 事实上,我们发现使用EIP并没有真正的价值 我们每个地区最多只能使用5个EIP 所有通过EIP的stream量都被视为互联网stream量,但是例如公共主机名,当从内部networking连接时,将使用内部IP来节省我们的带宽/金钱 在服务器停止/启动后,您还需要重新附加EIP,这与更改公共主机名时重新连接ec2实例的DNS相同。 有什么重要的点我失踪?
我在Amazon Web Services中启动的每个Debian 8 Jessie AMI只是将根操作系统放到一个8GB分区上,而不pipe我在启动时设置的大小。 我知道有一些关于如何创buildAMI时设置大小的文档。 但是我在AWS的支持,他们说,这是意想不到的行为。 此外,当我启动另一个Linux发行版(例如Ubuntu)时,我可以在启动时设置根分区大小的方式没有问题。 然后我开始想知道为什么没有人在互联网上提到这么多。 我已经四处搜寻,还没有提出任何真正的答案。 我也开始怀疑Debian是否正在崩溃,如果我应该去Ubuntu。 我仍然在互联网上看到,Debian是生产Web服务器的首选。 我还发布了论坛和通过电子邮件发送的Debian,但是我还没有对他们的EC2 AMI有一个坚实的回应。
AWS刚刚宣布了免费的SSL / TLS证书: https : //aws.amazon.com/blogs/aws/new-aws-certificate-manager-deploy-ssltls-based-apps-on-aws/ 主要是: 通过AWS Certificate Manager提供的SSL / TLS证书是免费的! 和 您可以免费提供,部署和续订证书。 但是,博客文章和文章似乎并没有阐明创build的证书是否可以在没有ELB或Beanstalk的普通EC2实例上使用。 它只是这样说的: 由于ELB支持SSL卸载,因此将证书部署到负载平衡器(而不是其后面的EC2实例)将减less实例需要处理的encryption和解密工作量。 和 我们计划添加对其他AWS服务和其他types域validation的支持。 这篇链接的文章: https : //medium.com/@arcdigital/enabling-ssl-via-aws-certificate-manager-on-elastic-beanstalk-b953571ef4f8#.2w5o4vq9p 说 这里有一个警告:你必须使用弹性负载平衡器(前面没有ELB的单实例环境将不起作用)使用弹性beanstalk。 我的问题是:我可以访问和使用这个服务生成的SSL证书吗?它们是否有效?
我计划为我的客户提供AWS EC 2上的实例,如果我使用AWS EC 2或Rackspace CS,似乎机架空间具有诸如狂热支持之类的不同function,但sla似乎不透明(100%保证在AWS中有迁移选项(这只发生在真正的云)停机时间,我需要在这个选项…请……. 这样我可以根据客户的业务规划。
EC2的“linux / unix”服务器和“SUSE Linux”有什么区别? 为什么SUSE的成本更高? 好点吗?
我有3个SSD EBS卷挂载到我的数据库服务器。 主数据量为10TB,日志卷为1TB,第三卷为100GB。 当我对这3卷进行快照时,即使只有大约100GB的空间,1TB日志卷的快照速度也要比10TB数据量快得多。 (已经超过8小时,只有55%完成了,大约2小时后完成了10TB快照)。 有什么我可以做的,以加快这个过程?
我们尝试设置默认原点为S3的Cloudfront分配,但如果在S3上找不到内容,我们希望它从EC2实例中获取。 我们可以设置这些多个来源:S3和EC2以及两种行为,默认为(*),并在需要时将它们故障切换到第二个原点(EC2)? 过程如下: 我们的后端在EC2实例上生成图像。 我们尽快将它们上传到S3,但不是立即的。 当用户尝试访问cdn.example.com/images/picture.jpg时,它会将Cloudfront指向我们的S3存储桶,如果图像不存在,我们希望将该请求redirect到EC2服务器。 我们很好,在这里有一个临时的redirect解决scheme,直到它在S3上更新。 S3redirect不是答案,因为S3redirect似乎只适用于现有对象或整个存储桶,而不是丢失的对象。 我们怎样才能做到这一点? 谢谢,Adoram