我有一些秘密文件,我想限制匿名用户查看/下载。 我试图通过运行像这样的私人: s3cmd setacl –acl-private s3://bucket/some/path/*.ext 然后我进入S3pipe理控制台,select文件,然后点击属性,我确定打开/下载权限没有被选中。 但复制链接https://s3-us-west-2.amazonaws.com/bucket/some/path/blah.ext ,并粘贴到一个新的浏览器,它仍然可以打开/下载。 我错过了什么?
是否有可能通过AWS CLI或通过某些第三方工具轻松下载版本化存储桶的所有内容,因为它是在特定的date时间? IE我想检索桶中的每个对象的版本,这将被视为在给定date的“最新”版本。
在Linux或任何其他* NIX平台上有一种方法可以使用本地文件系统备份caching在本地安装远程文件系统。 我有一些S3需要访问的存档数据。 他们被访问的方式是; 一旦被触摸,应用程序需要将其从S3读取几次。 我知道我可能会要求文件系统来做caching数据的应用程序工作; 但麻烦的是我没有控制应用程序来修改它。
我在AWS Glacier中有3.5TB的数据(文件备份)。 我希望AWS向我发送一个具有这些数据的检索驱动器/设备,因为我不认为下载会成功完成。 我试图用雪球做到这一点,但不能因为雪球只让我selectS3的桶。 有没有办法select雪球的冰川档案,还有另一个我应该使用的AWS磁盘检索服务,还是有另外一个在这种情况下常用的程序,例如一个可以在几天内可靠地下载冰川档案的客户端?
快速问题,在Windows上的简单的控制台客户端的亚马逊S3?
我有一些静态文件位于我想从nginx服务器提供的S3存储桶中。 基本上,如果用户去www.mywebsite.com/this/url我想从S3存储桶中提供一个文件。 这样做最好的方法是什么?
做任何商业IaaS对象存储(S3,Azure Blob等)避免多次存储重复数据(相同的文件,或部分文件)? 例如,我们有一个15 TB的tweet数据集,我们的团队中的一个想要做一个副本,然后对数据进行一些修改。 我们会收取30TB的存储费吗? 有没有一种很好的方法来查找这些大型对象存储上的重复块,或就地压缩大型数据集? 我们可以用某种符号链接replace重复的文件吗?
看起来创build存储桶策略可能会有所斩获,但是我在创build策略时遇到了问题。
我在AWS S3 Object Versioning上读到的所有信息都特别提到了这一点: 在设置版本控制状态之前存储在存储桶中的对象的版本ID为null。 启用版本控制时,存储桶中的现有对象不会更改。 Amazon S3在将来的请求中如何处理对象有哪些变化。 本节中的主题介绍启用版本控制的存储桶中的各种对象操作。 资源 我目前在一个桶中有大约2TB(370K个对象)的数据。 我的理解是,如果我现在打开版本,那么未来的对象将会被版本化。 我的问题:现有的物体呢? 我坚持没有他们没有版本或有没有一种方式来版本他们没有下载/重新上传? 我在Google Fu上找不到任何信息,所以想在这里集合一下。 谢谢。
我正在build立一个网站,将大量(> 150GB)的小文件(~25Mb平均)分发给大量的人,因为我的服务器公司带宽和磁盘空间都很贵,我们是在低预算,我想我们应该与亚马逊的S3服务来承载我们的内容,是否有任何潜在的陷阱或specar预防措施,应该build立在亚马逊的S3需求高的网站应该采取?