Articles of 亚马逊 s3

基于传输在Amazon S3上自动扩展

我正在等待亚马逊AWS的账户确认,直到那时我无法做实验。 首先,我在Amazon AWS上find了关于自动扩展的文档,但是他们都提到Amazon EC2,没有关于S3的信息。 S3有这样的事吗? 其次 – 在交通量增加的情况下是否可以扩大规模? 文档中提到了CPU和RAM的使用情况,与stream量无关。

没有权限pipe理Amazon S3中的文件

我们使用–acl-public将文件从一个存储桶传送到另一个存储桶中,如下所示: s3cmd cp -v –recursive –acl-public s3://source-geo/webroot s3://dest-geo/webroot/ 现在我们可以公开访问s3:// dest-geo / webroot /的文件。 通过亚马逊S3控制台,当我们login到主目录用户(pipe理员用户)权限部分的所有文件显示为“ 没有权限添加… ”的目的地。 我们能够下载这些文件没有任何问题,但问题是当我们改变acl,添加元数据,更改权限等。 通过S3浏览器,当我们访问这些文件的权限,我们得到错误为“错误发生在许可期间。 拒绝访问。” 现有的存储桶和新build的存储桶没有问题。 该问题只是从另一个帐户传输的文件。 任何人都可以请帮助我们。

复制现有s3存储桶(不包括数据)的最简单方法是什么?

我希望能够创build一个镜像现有存储桶设置的新存储桶。 什么是最好的办法呢? 理想情况下,我希望能够通过aws cli捕获设置,并通过命令行创build一个新的设置

Duplicity备份到S3:BackendException

我正在尝试将我的Duplicity安assembly置为备份到Amazon S3存储桶。 我不断收到一个BackendException错误,没有进一步的细节。 编辑:我已经从这个问题中删除我的Duplyconfiguration努力查找更多的问题,并切换到一个小目录(10 MB,34个文件)的简单的重复命令。 这是我试图运行的命令: duplicity full ./logs "s3://s3-us-east-1.amazonaws.com/bucketname" -v9 这里是输出: root@ats:/var/ats# duplicity full ./logs "s3://s3-us-east-1.amazonaws.com/bucketname" -v9 Duplicity 0.6 series is being deprecated: See http://www.nongnu.org/duplicity/ Using archive dir: /root/.cache/duplicity/876c7d0b54276e675d41f6ea6077d52f Using backup name: 876c7d0b54276e675d41f6ea6077d52f Import of duplicity.backends.botobackend Succeeded Import of duplicity.backends.cfbackend Succeeded Import of duplicity.backends.dpbxbackend Succeeded Import of duplicity.backends.ftpbackend Succeeded Import of duplicity.backends.ftpsbackend Succeeded Import […]

Logrotate脚本没有上传到S3

我正在尝试使用logrotate从我的rails和nginx命令每天上传一次日志文件。 当我手动运行logrotate命令时,文件成功上传,但是从来不会自行完成。 我曾尝试使用lastaction,也postrotate,但实际上没有上传到S3。 我错过了一些微不足道的东西吗? /home/deploy/www/mysite.com/log/*log { su daily dateext dateformat _%Y_%m_%d rotate 3 missingok dateext compress delaycompress notifempty copytruncate sharedscripts lastaction rvmsudo passenger-config reopen-logs; /usr/bin/s3cmd sync /home/deploy/www/mysite.com/log/*.gz s3://mysite_com/logs/rails/ endscript } 编辑:下面是这样做的更正方式。 因此,不要使用lastaction脚本,而是调用一个shell脚本。 lastaction ./rails_reload_and_upload.sh endscript 其中包含 #/bin/bash ./reload_rails_logs.sh /usr/bin/s3cmd –config /home/username/.s3cfg sync /home/deploy/www/mysite.com/log/*.gz s3://mysite_com/logs/rails/

有什么方法可以恢复s3桶中的文件夹的整个以前的版本?

我知道文件夹不是S3中的文件夹,但是如果您在启用版本控制的情况下恢复以前版本的文件夹,这将非常有用。 我一直在看它,我只能看到以前版本的文件,而不是文件夹。 如果您有一个包含数千个文件的文件夹,并且有一百个文件被删除,您不确定这些文件在何处或何时非常有用。 有没有办法做到这一点? (使用Linux) 编辑: 它看起来像有效地做到这一点的唯一方法是使用这个工具: Amazon S3 point in time restore 我感到震惊的是官方的s3工具和s3cmd不支持这个。

在Ubuntu服务器上用亚马逊S3存储桶自动同步一个文件夹

我有一个应用程序运行在数字海洋服务器上,有两个文件夹正在更新用户上传的图像。 是否可以自动将新的上载从服务器文件夹传输到s3存储桶。 我已经在ubuntu服务器上configuration了AWS CLI。 谢谢

关于亚马逊EC2和S3的混淆

计划在Amazon Web Services中托pipe一个带有MySQL DB的PHP网站,我应该select哪些AWS组件? 该网站只是一个具有自定义CMS的dynamic网站,但预计将有大量数据上传到CMS。 我正在考虑使用Amazon EC2,并使用以下设置: 具有1024GB x 2磁性EBS卷的t2.medium Linux 数据传输input和输出:200和300 GB /月 但是我从其他人那里听说,我可以使用Amazon S3托pipe网站,并使用以下设置: 存储:3000GB PUT / COPY / POST / LIST请求:20000 GET和其他请求:10000 数据传输input和输出:200和300 GB /月 CloudFront月度量:1000 GB /月(平均对象大小30KB) 有什么区别? 我应该select哪一个?

在jenkins或S3上encryption并在EC2实例上解密

我想使用AWS CodeDeploy在应用程序上自动部署新代码。 我正在使用AWS来运行我的应用程序。 我想要做的是以下几点: 在jenkins中构build应用程序(也在AWS上运行) 在S3上发送已编译的应用程序,以及由CodeDeploy挂钩(AfterInstall)自动设置的一些环境variables CodeDeploy将负责其余的步骤 我想知道的是,在S3上encryption这些env vars(它们是在一个文本文件中)并在实例内解密它们时,是否有AWS实践? 如果没有,你有什么指示我怎么能达到我想要的(在S3上这些环境的一些安全性)? PS在S3中上传这些环境variables并设置每个部署的原因是因为它们往往会改变。 我不想在形象中烤他们。 此外,远离环境variables是不可取的。

S3存储成本如何每天运作?

我很难计算S3存储成本。 这种情况是我需要存储每日备份到它。 情况:假设我在1月1日租用S3服务,并向其发送10个10GB的文件(zip)。 然后,每两天最旧的两个文件将被删除,并由两个新的(每个10 GB)replace。 所以,每天都会存储100GB的文件。 在这种情况下,如何计算存储成本? 一月底我会付多less钱?