任何人有一个很好的,简单的脚本备份一个VPS到S3桶? 可以是ruby,python,无论… 应该很容易configuration! 谢谢
我正在试图将我网站的图像存储在Amazon S3存储桶中的一个场景。 到目前为止,我已经设置了桶和CNAMElogging,以便通过URI模式从S3正确地提供图像:' http://images/myDomain.com/ [图像文件]' 现在我想说服IIS重写传入的请求指向S3。 该网站的图像目前存储为: http://testing.myDomain.com/content/images/logo.jpg 。 closuresIIS的URL重写模块的几个示例,这是我认为应该工作,但显然不是的规则。 由于我正在testing这个,我真的在名为testing的子域名工作。 上面的url确实parsing了我的logo.jpg。 <rule name="Redirect Images" stopProcessing="true"> <match url="http://testing.myDomain.com/content/images/(.*)" /> <action type="Redirect" url="http://images.myDomain.com/{R:0}" /> </rule> mny thx
我正在寻找一种将样本文件分发给客户的方法。 要求是上传文件(相对)简单,链接可以发送给可以用浏览器下载文件的客户端,客户端的链接不能用于查找其他文件 目前,我使用Dropbox和脚本来创build一个独特的保pipe箱文件夹并生成链接,如http://dl.dropbox.com/u/1234/some_long_random_name/the_sameple_video.mov “,而不是pipe理密码 没有必要encryption内容,文件通常<1Gb,我们只希望每天下载一些。 我们不希望在我们的网站上托pipe它(不要问),我们希望有一段时间的服务,但数据存储在本地,所以9-9冗余不是问题
有一些用户可能为了备份目的而写入数据的存储桶。 他们使用s3cmd put新的文件放到他们的桶里。 我想对这些桶执行一个非销毁策略 – 这意味着,用户不应该销毁数据,他们应该只能添加数据。 我如何创build一个桶策略,只允许某个用户放置一个文件(如果它不存在的话),而不会让他对这个桶做任何事情。
无论如何,在S3上为静态托pipe的网站设置URL重写? 我正在迁移一个现有的网站和一些url,我希望他们有一个301redirect,我不想有所有我的网站文件的DOT HTML的过程。 这是可能的,或者我应该只废旧的URL系统,并创build一个更新的网站地图?
我发现上传很多小文件到S3的时候会有相当的开销。 其中一些开销来自SSL本身。 在EC2中运行时,如何与没有SSL的S3通信? 从下面的真棒评论,这里有一些澄清:这不是一个关于HTTPS与HTTP或我的数据的敏感性的问题。 我试图感受EC2和S3的networking和协议特性。 例如 从EC2到S3的通信是否保证只通过AWSnetworking? 其他AWS用户(除员工外)是否可以嗅探EC2和S3之间的通信 每次调用都在他们的api上进行身份validation,因此每次调用都会传递凭据? 或者是有某种authentication会话。 我正在使用jets3t库。 来自具有AWS经验的人的反馈将不胜感激。
我有一个本地目录,我想与S3存储桶进行同步。 我有两个具体要求: 如果本地文件与远程文件相同,则不要将其重新传输到存储桶。 如果某个文件或目录存在于存储桶中,但不存在于本地,请将其删除。 基本上桶应镜像本地副本,而不是反之亦然。 我看着s3cmd sync命令,但不幸的是要求2没有履行。 如果文件存在于存储桶中,但不存在于本地副本上,则会将其复制到本地而不是被删除。
我有一个在两台服务器上更改的文件系统,还需要将其复制到Amazon S3。 直到最近,使用Unison在两台服务器之间同步文件系统,然后使用s3sync.rb复制到S3是一个很好的解决scheme。 现在文件系统接近50GB,s3sync.rb已成为瓶颈,因为它需要检查每个文件的新鲜度(我们使用–no-md5标志)。 所以我现在有一个脚本需要一个文件列表,它会更新这些,只有这些使用s3cmd.rb 我希望我可以使用unison.log文件来获得一个规范的文件列表,但是它的格式取决于文件中发生的操作(新文件,从本地备份,重命名等复制) 。 统一能够生成一个日志或文件的列表已被更改unison.log中剩下的文件吗? 目前这是我如何从unison.log中提取文件列表(我故意忽略删除) # Ignore deletes and get the list of new & changed files grep -v '\[END\] Deleting ' /tmp/unison.log | grep '\[END\]' $unisonlog | sed -re 's/\[END\] (Copying|Updating file) //' > /tmp/changed-files.log # Files that unison lists as shortcuts are harder as it doesn't always prefix them […]
s3cmd s3://MYBUCKET/FOLDER不起作用。 (文件夹是空的) s3cmd s3://MYBUCKET/FILE不起作用。 这两个命令的输出是“文件文件成功删除”,但文件仍然在桶上。 使用S3 Web界面删除工作就好了。
任何人都知道一种方法来确定s3文件/桶的最后访问date,或者如果这是甚至logging? 通过GUI看起来不可见,s3cmd和boto的基本尝试显示上次修改date,但未被访问。