AWS S3存储桶中有85TB的数据。 将其移至Azure的最佳select是什么? 我现在看到两个选项: 购买AWS Snowball Edge 。 我能否将数据导入到Azure中? 购买Azure Data Box 。 我能够将数据从AWS导出到它吗? 还有一个难题是数据是一大堆小文件(图像),那么AWS是否会为GET请求收取费用,如果我们select各自的设备,则会收取PUT请求的Azure费用?
我试图上传我的审计文件到S3。 使用s3cmd工具。 我只是运行这个命令: sudo s3cmd put /var/log/audit/audit.log s3://audit-files 但是我得到这样的错误信息: /var/log/audit/audit.log -> s3://audit-files/audit.log [1 of 4] 5120000 of 5116306 100% in 88s 56.80 kB/s done WARNING: MD5 Sums don't match! WARNING: Retrying upload of /var/log/audit/audit.log /var/log/audit/audit.log -> s3://audit-files/audit.log [1 of 4] 180224 of 5116306 3% in 4s 41.30 kB/s^CSee ya! 为什么发生这种情况? 我对Amazon S3相当陌生。
我有一些困难,build立我的S3做一个自动备份到冰川。 也就是说,我每天都要在冰川上的s3的副本。 这个怎么做?
通过S3托pipe图像和脚本比运行nginx / varnish / etc的EC2实例更便宜。 ? 在我看来(但我刚刚开始使用AWS),请求成本将是主要因素,如果你不使用精灵或其他优化…或者我错过了什么?
我需要知道什么是基于Amazon S3的最佳(读取:高性能和容错)文件系统解决scheme。 我看了一个s3fs,但是我注意到它已经有一段时间没有工作了,这让我思考稳定性和function。 你有什么其他的文件系统解决scheme,你有什么经验与它?
假设我有一个Django应用程序 使用s3服务静态文件还是在ec2实例上设置nginx服务器会更好(性能方面)?
Amazon EC2中的实例是否存在最大关机时间? 并且是通过EC2-API最大可configuration的? 我们在关机时将数据从实例传输到S3。 这适用于小文件。 但是,如果它们变得更大(几GB),我们体验到并非所有数据都被传输。 OS:Ubuntu 11.04(EBS支持的AMI)
我一直在评论Amazon S3和Amazon CloudFront的function和价格,以及其他提供商提供的类似服务。 有一件事情我不明白,为什么Amazon CloudFront定价似乎不像我看到的其他CDN那样需要存储成本。 我明白,我的文件被确定存储在S3上。 S3有存储成本。 但是,当我激活CloudFront时,根据我的理解,我的文件将被复制到许多地理位置分散的数据中心。 通过收取转账(加上请求)而不是存储,在我看来,亚马逊会在客户需要大量存储但转移不足的情况下受到伤害。 由于这看起来不正确,所以我想问一下:在理解Amazon CloudFront不收取存储费(超过S3存储成本)的情况下,我是否正确? 如果我是正确的,亚马逊是否对其CloudFront服务有任何存储限制,以防止他们从需要大量存储但使用很less带宽的客户那里损失资金?
有没有办法获取IP地址来引用Amazon S3存储位置? 目前我公司正在考虑的解决scheme包括build立一个Elastic IP的EC2服务器,并使用Squid作为S3位置的代理。 有没有更好的办法?
我已经读了很多关于亚马逊和EC2,EBS和S3的定价细节,但是我仍然有几个问题: 如果我理解正确,EC2实例之间的stream量不计费。 EC2实例和S3之间的数据传输是否仍然占用? (就好像我从另一台服务器访问S3一样) 来自EBS快照的stream量和请求如何? (我假设这里根据快照大小在S3中计算磁盘空间)