我们向客户提供区域文件。 一些区域文件大约300MB,有些是非常小的,可能是1MB。 我们有这个问题,有人设置脚本不断下载文件。 想象一下,每天下载300MB文件几百次。 因为我们没有包装器来限制stream量,所以我们需要升级ftp服务器并使用附加模块以某种方式限制下载。 我们目前使用proftpd服务器。 另外请注意,不同的用户有不同的域名 – 例如,如果你想下载.INFO域的区域文件,那么你使用一个特定的用户。 该用户不能下载任何其他区域的文件。 这是我们正在寻找的:
每个用户每天最多可以下载400MB。 甚至每天不同的用户有不同的下载限制。
每个用户随时都有一个连接。
每个用户每天的最大连接数(非同时)是5.任何超过该值的人都被禁止24小时。
有没有人使用过类似限制的FTP服务器? 有没有人有任何想法,我可以开始? 任何帮助,将不胜感激。 谢谢。
-N
不直接与FTP相关,但是我会去解决问题(客户重复下载整个区域文件),而不是放慢速度(可能需要更复杂的设置)。 你有没有考虑过:
区域文件是很大的数据块,只有很less的部分发生变化,他们尖叫着增加一种传输方式,而不是每次都下载完整的文件。
你可能想看看FileZilla 。 我相信它应该有你正在寻找的所有function。
我们使用了在Windows 2003上运行的CrushFTP。它也可以在其他平台上运行,并且不需要CrushFTP概述
许多function用于HTTPS和其他安全访问。 它可以限制连接,设置最大文件大小和其他访问限制。 许多其他伟大的function,低成本和很大的支持。 还没有尝试V5,但最后的版本已经很好。 值得一看
Bitvise WinSSHD可能会通过wcfgconfiguration工具来完成你所需要的。