我为一个经常受到botnetworking攻击的网站工作。 我们已经开始使用这个工具: http : //deflate.medialayer.com/ ,它自动禁止比设置值更开放的连接。 默认情况下,它被设置为150,我们目前正在使用250。
我想知道,search机器人和普通访问者不会被阻止的安全程度有多低?
I would like to know, how low is safe so that search bots and normal visitors do not get blocked?
只要没有search漫游器和普通访问者被阻止,就可以得到低。 (即“没有经验数据就没有办法说 – 这取决于你的站点,使用的浏览器/爬虫types以及他们试图打开多less个同时连接,无论用户是否在代理/ NAT之后用户似乎来自一个IP地址等等“)
实用的build议:如果你想在这种错误的方面使用像这样的自动禁止(允许攻击继续),而不是误报(禁止合法用户)。 从一个IP同时连接200个似乎是一个合理的价值,只要你没有成百上千的用户在一个代理的地方看起来像一个IP,并一次点击所有的网站。
一个典型的浏览器一次不会超过十几个连接。 然而,你将遇到的问题是NAT后面的人,尤其是大型networking,十几个人同时连接可能会发送超过一百个并发连接。
这个问题真的没有很好的答案。 我们所能说的最好的就是试试看。 您可以设置两个级别,在250位被阻止,并在一些新build议的限制(比如100),他们被logging,所以你可以查看日志,看看是否有合法的stream量每击中这个数字。
如果有任何其他日志显示机器人的某种错误的行为,你可能会受益于使用Fail2Ban(或类似的东西)。 说如果他们经常请求不存在的网页,您可以监视404状态的日志。
要报价@ chopper3
百万
然而,严肃地说,没有一个明确的答案。 它取决于几个因素,如站点types和内容以及NAT /大型networking背后的人员。 您select的最佳方式是testingbuild议的设置,并查看是否有合法的stream量被阻止。