我有一个网站build立与玩! 我使用ssl与NGinx一起展示的框架 。 一切工作正常,但我想实现基于URL的file upload限制: 如果用户上传文件到* / pages / **( / pages /或/ page / {id} / edit ),我将限制到10Mo (这将是zip压缩文件) 如果用户上传一个文件到* / images / **( / images /或/ images / {id} / edit ),我会将大小限制为2Mo (只会是图片) 这里是我卡住的地方: 我看到了client_max_body_size指令,这正是我想要的,但是我必须为每个位置指定proxy_ *configuration吗? 如果用户在我的应用程序(位于/ errors / 413)中达到允许的配额,我将显示一条特定消息。 如果我直接使用我的浏览器,它的工作。 但是使用下面的configuration,我有一个“ 504网关超时 ”。 为什么? 这是我的configuration文件: server { listen 443; server_name www.mywebsite.com; access_log […]
我有很多图像文件,我想以最快和最有效的方式将所有这些文件(大约一百万个在一个目录中)上传到RackSpace云文件。 我正在使用python-cloudfiles脚本来上传它们,但是它非常慢,我想知道不同的方式或python脚本代码。 可能是非常慢,因为它使用每个上传的一个连接。 我想在tar中发送所有文件并解压目录是更好的办法。 但云文件不支持这种方式。 谁知道其他方式?
我正在写我自己的小file uploadCMS在PHP为我的网站。 我遇到的问题是,每当我上传超过13MB的东西,上传达到100%,然后立即问我一个内部服务器错误页面,文件不上传。 除此之外,file upload完全完美。 作为参考,我改变了所有这些php ini设置,它仍然不起作用: max_execution_time = 1200 max_input_time = 1200 memory_limit = 120M max_file_uploads =120MB upload_max_filesize = 120M post_max_size = 130M 和我用来存储我的文件的代码是他们已经发布后是: move_uploaded_file($_FILES["upload"]["tmp_name"], $_SERVER['DOCUMENT_ROOT']."/download/".$name); 另外我的网站运行在由fatcow提供的虚拟服务器上。 在此先感谢您的帮助。
我遇到了Nginx的奇怪行为。 在我的例子中,Nginx作为Jetty的代理。 configuration如下: server { listen 80; client_header_timeout 3m; client_body_timeout 3m; send_timeout 3m; client_max_body_size 5M; server_name test.com www.test.com location / { auth_basic "Restricted area"; auth_basic_user_file /etc/nginx/htpasswd; proxy_pass http://localhost:8080; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto http; proxy_set_header X-Real-IP $remote_addr; proxy_set_header Host $http_host; gzip on; } } 当上传大小超过5M的文件时,我会收到'网关超时'。 CPU使用率为0%。 我不知道什么是错的。 这与networking速度无关,因为我正在本地进行testing。 如果我跳过一个代理,并尝试直接上传文件到应用服务器(我的意思是:在端口8080),一切都像一个魅力。 任何想法 ?? 问候!
我试图在PHP中testing一个http图像上传function。 我已经在OSX(本地)和Ubuntu(远程)上的Apache上尝试了这一点。 在php.ini中,我设置了upload_tmp_dir = /var/tmp/http-upload 。 tmp和http-upload权限都设置为drwxrwxrwt 。 每次我尝试上传,我得到一个错误,该文件不存在于临时位置。 我在configuration中丢失了什么? 实际的上传function是: if ($_FILES) { $target_path = '/assets/logos' . basename($_FILES['logo']['name']); } if (move_uploaded_file($_FILES['logo']['tmp_name'], $target_path)) { echo 'success'; } else { echo 'fail'; } 具体的错误是: Warning: move_uploaded_file(/logos/1317156765-shinetsu.gif): failed to open stream: No such file or directory in upload.php on line 8 Warning: move_uploaded_file(): Unable to move '/tmp/http-upload/php8CNWja' […]
如何以一个很快的速度将文件从一台服务器传输到另一台服务器? 现在我正在使用FTP传输文件,但花费了很多时间。 要传输2 GB的文件,大约需要3个小时。 有没有其他程序传输比FTP更快的文件? 服务器位置:一个在印度,另一个在美国。
我有这个问题,我知道我需要增加: FcgidMaxRequestLen 15728640 我试图在htaccess页面上做到这一点,但上传时,整个网站给我500内部错误。 错误是: [Thu Mar 07 06:16:05 2013] [warn] [client ???????] mod_fcgid: HTTP request length 16783183 (so far) exceeds MaxRequestLen (16777216), referer: 然后我尝试添加: <IfModule mod_fcgid.c> FcgidMaxRequestLen 15728640 </IfModule> 这仍然会导致我的服务器显示500错误。 我究竟做错了什么? 我正在使用一个MT DV4服务器,我有ssh进入它,现场说: FcgidIdleTimeout 40 FcgidMaxRequestLen 1073741824 FcgidProcessLifeTime 30 FcgidMaxProcesses 20 FcgidMaxProcessesPerClass 8 FcgidMinProcessesPerClass 0 FcgidConnectTimeout 30 FcgidIOTimeout 45 FcgidInitialEnv RAILS_ENV production FcgidIdleScanInterval 10 […]
我们需要将数千个小型htm文件转移到在Windows Server 2008R2上运行IIS7.5的Web服务器。 文件分组在文件夹中,每个文件夹包含200到500个文件。 远程桌面连接的拖放不能很好地工作。 通常它被卡在“计算”,似乎从来没有进展。 所以我们想在服务器上启用SSH文件传输。
我正在使用s3cmd将一些日志备份到Amazon S3存储桶中。 这是一个伟大的工具。 但是我注意到,我经常会发现我的sync's已经坏了,他们只是取消并尝试重新上传,直到他们可以上传文件,但是问题在于他们没有继续从停止上传的位置开始上传请求。 我能做些什么呢? 要继续上传,即使它被破坏? 改变我的.s3cfg文件或添加一些参数到我的命令? 那s3cmd throttle是什么意思? 我问,因为当上传失败,这个throttle增加。
我们的部门在客户从另一个软件供应商切换到我们时进行数据迁移,我们通常需要获得他们的旧数据(不pipe可能是什么)的副本并将其发送给我们。 我们面临的巨大挑战是一些系统将有数十万个文件(主要是文档/图像库),整个集合可能在十几兆字节的大小。 我们在转换过程开始时获取他们的数据副本,然后我们在安装之前抓取第二套,这可能在几个月后。 我们正在寻找更好的解决scheme来上传第二组数据。 目前主要的方法是创build一个大的整个目录的zip文件和FTP(通过一个只写帐户)到我们的服务器,这当然有一个很大的开销,由于大部分文件可能没有改变分享最初的数据抓取。 像rsync这样的工具看起来像是一个完美的解决scheme,但从我研究的内容来看,没有简单的方法来像“FTP”那样只写一个帐户。 防止未经授权下载另一个客户的数据是上级关注的重点。 总之,我应该使用哪种工具来满足这些要求: 不允许下载其他客户的数据。 最小的安装工作要执行客户端。 通常通过电话提供有关如何上传数据的说明,而且现场没有任何人。 此外,电话另一端的人往往是非常不熟练的电脑使用。 客户端的Windows可比性。 95%的客户是Windows用户,另外5%是Mac电脑,但是Mac的可比性不是主要关心的问题(但是会是+)。 允许我们不发送没有改变的冗余文件 。 客户端的可靠性。 以前我们试图用BITS来上传,但是我们发现相当多的XP时代机器无法正常工作。 我们使用的任何客户端都需要在任何Windows XP SP2或更新版本上运行99%的时间。 最小的安装工作服务器端每客户端。 我们不希望为每一个上传的客户端创build一个单独的用户,但是如果我们不得不这样做的话,不排除一个工具只能算作一个 – 。 服务器端程序在窗口内运行。 我们主要是一个Windows / C#商店,不得不设置和pipe理一个Linux机器将不是首选。 但是,如果有问题的工具能够很好地满足所有其他要求,那么就不排除在Windows中不能运行。 目前的先行者是rsync和编写某种用户pipe理器,可以在每个客户端的rsync服务器上创build一个单独的用户帐户,但我相信还有其他选项,我不知道哪些可能更适合。