这是一个消费者应用程序,所以我会关心存储成本 – 我不想有5倍的数据副本躺下。 该应用程序分片非常好,所以我可以使用MySQL,并没有缩放问题。 Amazon EBS有一个很好的基线+快照备份function,使用S3。 这应该有一个轻的足迹(在存储成本方面)。 但是:magnolia.com的故事吓倒了我:糟糕的数据库或文件系统基本上完美的块级备份。 在MySQL级别上有什么与EBS几乎一样的存储效率?
如何防止swf文件从Amazon S3文件系统盗链? Flash文件不会发送http referrers,所以我试图设置一个限制在亚马逊某些推荐人的桶政策,但没有运气。 而在我的服务器这个典型的防盗链.htaccess不起作用: RewriteCond %{HTTP_REFERER} !^$ RewriteCond %{HTTP_REFERER} !^http(s)?://(www\.)?mysite.com [NC] RewriteRule \.(jpg|jpeg|png|gif|swf)$ mysite.com/goaway.jpg [NC,R,L] .htaccess和mod_rewrite确实可以用于其他方面,比如WordPress永久链接,所以我不认为这是mod_rewrite共享主机的问题。 我在Flash中使用的URL是否embedded? http : //mybucketname.s3.amazonaws.com
我在Ubuntu 9.10上使用s3fs 1.33。 经常给我这样的错误: rsync:writefd_unbuffered未能向socket [sender]写入4个字节:Broken pipe(32) rsync:closures“/ mnt / s3 / mybucket / filename”失败:软件连接中止(103) rsync错误:receiver.c(731)[receiver = 3.0.6]中的文件IO(代码11) rsync:连接意外closures(到目前为止收到86字节)[发件人] rsync错误:rsync协议数据stream(代码12)在io.c(600)错误[发件人= 3.0.6] 之后的任何尝试使用挂载的目录给出了这个错误: 传输端点未连接 为了摆脱这个,我必须重新安装。 有没有办法强制重新装入自动?
我正在寻找将Amazon S3中的几个TB数据备份到Amazon Glacier 。 我已经看到了S3 – > Glacier的 “自动归档”的选项,但我宁愿它只是一个简单的一次性转储(而且这些文件不能从S3中删除)。 看着: http://aws.amazon.com/glacier/#importexport 有一个很好用的API,但它似乎是一个工具,应该已经存在。 是否有任何工具可以轻松将数据从S3移动到Glacier ?
我们目前有12个节点在我们的Cassandra集群中运行。 最终,即使有几个节点出现故障,我们仍然在运行。 我的偏执狂想每天至less做一次备份并将其存储在Amazon S3上。 我的问题如下: 备份Cassandra时,从一个节点运行备份就足够了,还是必须从12个节点中的每一个运行备份脚本,并将其各自的备份推送到S3? 如果在某一时刻需要恢复,我们是否需要从单个节点进行备份备份,还是有办法将备份“聚合”(假设您需要从每个节点单独获取)到一个大的恢复过程中? 有点文件混淆。 只是想在我的Cassandra集群上获得有效的备份stream程。
我可以使用相同的命令很好地上传小文件,但每当我尝试上传一个5 GB的文件到S3然后s3脚本失败: [backup]$ s3put –bucket john-murdoch-bucket –reduced –debug 2 –callback 100 data.tgz /usr/bin/s3put:45: DeprecationWarning: BaseException.message has been deprecated as of Python 2.6 err.message[len('No module named '):] + \ send: 'GET /?&max-keys=0 HTTP/1.1\r\nHost: john-murdoch-bucket.s3.amazonaws.com\r\nAccept-Encoding: identity\r\nDate: Tue, 11 Jun 2013 07:00:45 GMT\r\nContent-Length: 0\r\nAuthorization: AWS <snip>=\r\nUser-Agent: Boto/2.9.4 (linux2)\r\n\r\n' reply: 'HTTP/1.1 200 OK\r\n' header: x-amz-id-2: <snip> header: x-amz-request-id: 1E11AD8B3C93E6B5 […]
我的免费AWS账户已过期。 我删除了所有的S3和EC2资源,但是如果我可以离开Key Pairs和Security Groups而不必为此付钱,我就会徘徊。 (我的帐户资源现在是这样的: 资源 ) 亚马逊的文档似乎没有提到这个问题。 这些资源是否花钱?
我正在研究AWS S3中的重命名包。 我宁愿使用SDK,但似乎SDK只支持复制和删除。 这是因为对象键用于分区驱动器。 但是,根据其文档 ,AWS CLI确实提供了mvfunction。 这只是复制和删除操作(可能)的包装,或其他? 谢谢!
我目前每天使用aws s3 mv命令备份上传到S3存储桶的文件,即: aws s3 mv $webroot/backups/db/ s3://my-backups/$date/db 一切正常,除了最近我的主机(MediaTemple)开始自动禁用我的服务器,因为,显然,这些上传开始在每台服务器上的每秒限制一些stream量字节。 有没有办法通过参数或awsconfiguration选项来限制aws s3 mv的带宽? 我知道有一些第三方的Linux工具可以做到这一点。 即节stream或涓stream。 不过,如果有一个内置的方法可以使用Amazon自己的工具,我想避免使用其他软件。
有没有服务来自动备份我们的S3帐户到外部云?