我正尝试使用Cloudberry Explorer PowerShell脚本自动将文件从Amazon S3存储拉到本地磁盘。 使用桌面应用程序,我能够手动连接并将文件转移到本地文件夹就好了。 当使用PowerShell时,我收到一个错误,指出The Remote name could not be resolved 'http' 。 下面是我的代码,我相信是正确的。 我尝试过,没有代理信息,我得到同样的错误。 我也有我的networkingpipe理员绕过代理validation的网站。 我不知道还有什么可能导致这个错误。 Add-PSSnapin CloudBerryLab.Explorer.PSSnapIn #Set Proxy info Set-CloudOption -ProxyAddress [proxy info here] -ProxyPort 8080 #Set connection to Amazon S3 account with access key and secret key $s3 = Get-CloudS3Connection -Key ***** -Secret ***** -SignatureVersion 2 -UseSSL #Set source and […]
我们有一个适用于AWS S3 Storage的应用程序。 最近我们还需要写一个Swift对象存储 。 我知道Swift栈有一个选项来启用S3的兼容性,但不幸的是,由于政治限制,这个服务器无法实现。 所以我想用一个简单的代理将S3请求转换成Swift。 请注意,我不拥有目标服务器,所以沟通会是这样的: File Upload –S3Protocol–> S3-SWIFT-PROXY –SwiftProtocol–> Swift Storage Destination 试图实现这一点,我已经通过了几个选项,但我没有设法使其工作。 例如, swift插件似乎是在Swift服务器上安装的解决scheme,但不能作为代理中间件将请求转发到第三个快速服务器。 我经历过的另一个库是swiftproxy ,它正好是我需要的相反方式:向S3快速发送请求。 有没有办法解决这个问题,而不改变应用层?
我正在使用CodeBuild 图片:aws / codebuild / nodejs:7.0.0 服务angular色:代码buid-some-service-role 在我的buildspec中运行以下命令 aws s3 sync ./webroot s3://s3-us-west-2.amazonaws.com/some-amazing-s3-bucket/test 这是桶政策: { "Version": "2012-10-17", "Id": "Policy1502332584348", "Statement": [ { "Sid": "Stmt1502332580996", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::123456789:role/service-role/code-buid-some-service-role" }, "Action": "s3:*", "Resource": [ "arn:aws:s3:::some-amazing-s3-bucket/*", "arn:aws:s3:::some-amazing-s3-bucket" ] } ] } 代码构build失败,与此: [Container] 2017/08/10 02:41:16 Running command aws s3 sync ./webroot s3://s3-us-west-2.amazonaws.com/some-amazing-s3-bucket/test fatal error: An […]
所以我的桶Alpha是在一个地区叫REGION1 。 我的桶Beta在不同的地区,我们称之为REGION2 。 我进入我的EC2实例,并使用此命令: aws s3 cp s3://Alpha/meh.txt ./meh.txt 有用! 到现在为止还挺好。 它完美的作品。 但是,当我做这个命令: aws s3 cp s3://Beta/qwe.txt ./qwe.txt 我收到以下错误信息: fatal error: An error occurred (400) when calling the HeadObject operation: Bad Request 上面的错误只能在我指定区域标志时才被修复。 这是为什么? 因为我认为无论区域如何,桶名都是唯一的,为什么我需要指定一个区域? 有没有办法阻止这种情况发生,而不指定区域? 也许是一个特殊的政策或什么? 谢谢。
我正在尝试从S3存储桶复制到Windows EC2实例上已挂载的EBS卷。 我有以下IAM政策: AmazonEC2FullAccess AmazonS3FullAccess AmazonElasticFileSystemFullAccess 当我试图直接复制到EC2一切正常。 (我已经使用了aws cli,S3Express和S3 Browser)但是,如果我直接复制到已安装的卷上,则会在S3浏览器上发生权限错误(以及与其他方法类似的错误): 失败 – System.UnauthorizedAccessException:访问path“D:\ test.mov_map”被拒绝 任何想法,将不胜感激,谢谢。
我正在为所有我正在使用的服务器创build一个AMI(Amazon EC2服务器映像)。 每个服务器映像都被分成几十个tar文件: Splitting /mnt/routing-4-server-Ubuntu-x86-64.tar.gz.enc… Created routing-4-server-Ubuntu-x86-64.part.00 Created routing-4-server-Ubuntu-x86-64.part.01 Created routing-4-server-Ubuntu-x86-64.part.02 Created routing-4-server-Ubuntu-x86-64.part.03 Created routing-4-server-Ubuntu-x86-64.part.04 … … Created routing-4-server-Ubuntu-x86-64.part.48 Created routing-4-server-Ubuntu-x86-64.part.49 当我将这些file upload到名为my-servers-august-9的存储桶时,我收到了大量的文件。 当我想要删除一些图像时,这将是一个问题。 我试图将它们存储在子文件夹下, 但是这个概念似乎不适用于S3环境,而亚马逊论坛上的解释相当令人费解 。 任何想法如何创build这个文件夹结构? my-servers-august-9 routing server x86-64 file file file … i386 file file file … other-server1 type files type files other-server2 type files 谢谢, 乌迪
我已经通过Google对此进行了大量的研究,似乎有很多方法可以做到这一点。 我正在寻找在我的Plesk运行Centos 5.2服务器上的两个目录中递增地备份新的和更新的文件:/ backups和/ var / www / vhosts(每个虚拟主机中最好只有httdocs) 有没有人从使用各种解决scheme得到一些很好的反馈 – 似乎是各种基于Java,Perl和Ruby的解决scheme。 非常感谢, 克里斯
我使用S3来托pipe将用于引导我的实例的文件,但很难设置S3,以便只有我的实例将具有读取权限,因为我不希望其他人能够下载configuration包和脚本。
一个关于亚马逊(AWS)S3存储的简单问题。 除了Web控制台界面之外,还有其他方法可以将数据上传到S3吗? 我有大量的家庭照片和家庭video分成数百个我想远程备份的目录,所以在这种情况下,FTP似乎是最方便的select。 谢谢。
我正在创build一个YouTubetypes的网站,并希望得到一些关于设置的帮助。 这是我迄今为止的计划: 使用我目前的托pipe:这是一个专用的虚拟 用户上传时:使用ffmpeg转换video并调整其大小 video将直接上传到Amazon S3,在那里将使用Amazon CloudFront(提供媒体stream)进行重新分发, 我的问题: 这个设置是否工作? 如果不是,我错过了什么? 这是一个便宜的路线吗? (如在,是一个相当不错的设置?) 如果成功,我会在头顶失去我的屁股吗? “stream行”和“stream行足够赚钱的广告”之间总是存在差距 我将在启动成本中看到什么? 我希望我在正确的网站上发布这个问题。