我在运行aws s3同步作为cron作业(在Ubuntu 16.04上)时遇到了麻烦。 这是我能做的事情: 使用sudo在/etc/cron.hourly目录中手动运行脚本(所以传递环境值似乎没有问题) 手动在没有sudo的用户目录中运行脚本 将脚本或命令本身添加到/ etc / crontab – 使用以下任一方法: 23 * * * * myusername aws s3 sync / home / myusername / temp / s3:// manning2323 * / 1 * * * * myusername /home/dbclinton/myusername/temp/s3script.sh 当然,/ etc / crontab的问题在于它可能会被更新覆盖,所以对我的目的来说还不够好。 现在,这是什么不工作: 将脚本留在cron.hourly中并等待它自动运行。 它运行(如syslog和journalctl报告),但是AWS CLI没有提供任何我能看到的输出,所以我无法知道为什么没有发生同步。 我如何知道同步没有发生? 因为新文件没有显示在我的S3存储桶中。 我得到完全相同的结果,我自己的crontab通过crontab -e添加这一行 47 18 * * […]
我正在尝试使用已经具有RBAC,用户控件以及实施的审计和监pipe服务的现有存储桶来创buildS3存储池。 不pipe什么原因,EMC正在试图创造一个新的桶。 有没有什么办法可以在其他良好的多租户硬件市民旁边的一个文件夹中创build你的存储池?
我收到来自aws的电子邮件,其中说我的aws s3存储桶被configuration为允许读取互联网上的任何人,并要求我查看ACL并加以保护。 基本上我的s3存储桶被用作云端分发的后端。 下面是我的s3桶,它们使用相同的策略应用了相同的ACL。 media-example-com font-example-com blog-example-com app-assets-example-com 共同政策如下适用于所有的桶。 { "Version": "2008-10-17", "Statement": [ { "Sid": "", "Effect": "Allow", "Principal": "*", "Action": "s3:GetObject", "Resource": "arn:aws:s3:::<bucket-name>-example-com/*" } ] } 以下是所有这些桶通用的ACL屏幕截图。 我不明白aws支持是什么意思,当它说这些桶configuration为允许从互联网读取访问。 在屏幕截图时,清除读访问是不允许的。
我正在使用Amazon Storage Gateway(特别是文件网关子服务)在S3上存储文件,同时保持NFS文件共享的简单性。 我目前的设置是运行File Gateway映像的本地虚拟机,具有80GB的根驱动器和500GB的高速caching。 我目前正在评估这个选项的性能,并且已经将600个1GB的文件写入了文件网关。 他们都在S3中,但是显然有100个人不能真的在本地caching中。 我想确定在S3中有哪100个,所以我可以做性能testing。 除了复制随机文件之外,还有一个很好的方法可以做到这一点,直到我碰到一个似乎是下载速度瓶颈的文件? 有趣的是,使用boto3caching大小和使用百分比似乎很奇怪。 (我对网关使用的ARN是正确的) 'ResponseMetadata': {'HTTPStatusCode': 200, 'RetryAttempts': 0, 'RequestId': 'xxxx', 'HTTPHeaders': {'content-type': 'application/x-amz-json-1.1', 'x-amzn-requestid': 'xxxx', 'date': 'Mon, 07 Aug 2017 16:00:19 GMT', 'content-length': '271'}}, 'CacheDirtyPercentage': 0.0, 'CacheHitPercentage': 100.0, 'CacheAllocatedInBytes': 268435456000, 'DiskIds': ['pci-0000:03:00.0-scsi-0:0:1:0'], 'CacheUsedPercentage': 0.66, 'CacheMissPercentage': 0.0} 编辑:我在2017年的AWS峰会上与开发人员交谈过,他们自己也不太确定。 所以我不认为这是目前的function,但我会继续调查。
我已经创build了一个AWS S3存储桶来备份我的Postgres数据库。 这一切都进展顺利,但后来我启用了日志logging,并开始得到一堆Access Denied日志。 我以为自己在备份程序中搞砸了一些东西,所以我用一个新名字创build了一个全新的存储桶,并启用了日志loggingfunction,但没有做任何事情。 现在我再次Access Denied日志。 他们读: <Error> <Code>AccessDenied</Code> <Message>Access Denied</Message> <RequestId>…</RequestId> <HostId> … </HostId> </Error> 在权限下,我是唯一授权的用户,拥有完全访问权限,还有S3日志传送组,具有读写权限。 任何想法是什么导致这些访问被拒绝的请求? 我必须强调,我没有试图用这个桶做任何事情,我只是创build它并启用了日志logging。 (我是AWS S3的新手,所以我可能会错过一些非常简单的事情。)
我已经设置了Elasticsearch来在Amazon S3上存储每日一天的快照。 计划是写出前五天的快照,意图是如果存在四个将被覆盖。 如果前一天的演习失败了,它们就不存在了。 我的绊脚石是我找不到一个定义S3文件名的方法。 目前他们有独特的名字,如: snap-lHS3zrv3RzWXzwbwwjwR1ng.dat ,虽然在策展人命令我定义它像snapshot-2017-09-15 我猜测它必须是Amazon S3插件中的东西,因为我可以手动将文件推送到S3,并且不会混淆名称。
我试图build立一个有两个来源的云端分布。 一个是自定义的起源。 第二个是S3桶。 出于某种原因,我得到了“S3”原点中的所有内容的“AccessDenied”XML响应。 桶中的对象都是公共的,可以通过S3 URL直接访问。 如果我创build了第二个发行版本,它本身就是S3发行版,它按预期工作。 起源 caching行为 我错过了什么吗?
我有一个DigitalOcean域名的DNS设置 ghazanfarmir.me 我想做的事? 我想要一个子域,即static.ghazanfarmir.me链接到CloudFront分配 ,然后链接到包含我所有资产的S3存储桶。 所以我可以使用子域static.ghazanfarmir.me访问CDN。 我到目前为止做了什么? 设置S3存储桶包含我的所有资产,并在此S3存储桶中创build了CloudFront分配( d17jymztihbpvb.cloudfront.net ) 在DigitalOcean DNS上创buildCNAMElogging,将static.ghazanfarmir.me到CloudFront分配,即d17jymztihbpvb.cloudfront.net 这是行不通的,有人可以解释这将如何工作,或者如果这一切都这样工作? 更新 我正在使用NGINX,问题是打static.ghazanfarmir.me加载站点启用目录中的第一个网站,即http://arbaeenuk.ghazanfarmir.me/ :
我有一个有趣的需求:在同一个S3桶上有各种文件。 其任务是使用用户名和密码来限制对文件的访问。 我尝试使用FTP服务器和s3fs作业,但连接时间太长。 我知道s3auth.com可以用来限制访问整个存储桶,但我需要限制访问每个文件(只有一个随机生成的用户名可以访问任何特定的文件)
我已经正确安装了AWS负载均衡器。 我正在使用Symfony 3.3,PHP 7.1和NGinx。 我已经做了一些像Symfony上推荐的反向代理设置一样的东西。 我还在ELB上设置了粘滞性,以确保会话被追溯到同一台服务器。 我使用FlySystem和VichUploadBundle来抽象文件的上传,我将这些文件存储在Amazon S3上,而不是在应用程序服务器上。 当上传文件看起来像PHP崩溃。 我通过由NGinx处理ELB健康检查testing了这一点,并确定NGinx仍然正常返回,但服务器无法访问,应用程序没有加载。 (我现在已经添加了由Symfony处理的ELB运行状况检查,以确保失败的服务器从缩放组中删除)。 我不知道发生了什么事,我只知道PHP在处理上传时似乎已经崩溃了。 会话应该是相同的,上传应该通过粘性处理去同一个服务器。 当然,如果没有坐在负载平衡器后面,上传也可以毫无问题地进行。