禁用curl和wget有问题吗?

是否build议禁用curlwget禁止任何人使用这些命令访问我的网站?

还是需要一些search引擎访问我的网站?

你有什么关于curl和wget的build议?

取决于你想做什么,以及为什么 – 你可以实施基于用户代理的禁令,这是最简单的方法,但它不会阻止一个坚定的“刮刀”,但是那么一点意志。

这可能是执行引用检查可以实现你想要的。

谷歌当然不会用一个curl-ush或wget-ish useragent,所以它不应该影响。

你使用什么networking服务器? 你为什么试图做到这一点? 这些答案帮助我们帮助你:)

正如大家已经注意到的那样,这样做几乎是不可能的,并且一无所获。 不要浪费你的时间。 你只会试图限制访问方法而伤害自己。

如果您的目标是分发内容,欢迎访问网站。 如果不是这样,战斗就是一场失败的战斗。 如果您有订阅内容,请考虑适当的方法,包括用户validation。

编辑:由于这里的提问者已经重申了这是关于“安全问题”,我认为这可能有助于解释这些作品。

wgetcurl工具就是这样的工具,用于查看您的内容。 他们遵循与常规浏览器相同的协议,只是碰巧为用户提供了不同的界面。 实际上,人们使用不同的工具来search网页上的内容,其中有十几个甚至上百个。 您作为服务器pipe理员的工作是pipe理您的服务器和那里的软件,而不是微观地pipe理您的内容 – 消费者的生活。

把自己想象成画画的艺术家。 你的工作是让图片正确,而不是限制你的观众说任何戴眼镜的人不允许看你的画。 这只是没有意义。

使用curl或wget没有任何安全问题。 你是错误的信息。

Web浏览器(IE,Firefox,Chrome,Safari,Webkit等)的全部目的是从http服务器下载并呈现网页的内容。 curl和wget的目的是从http服务器下载文件。 这是主要的区别; 命令行工具不会以graphics方式显示您的页面…)

正如其他人所说,你可以阻止用户代理,但这是一场失败的战斗……这不是真的要解决任何事情。

阻止一个特定的HTTP客户端的唯一方法是从它在HTTP请求标头中提供的代理string来标识它,因为这很容易被伪造,所以没有什么意义 – 任何人想要使用wget或curl来从你的站点中获取数据将通过提供一个不同的代理string(也许告诉它模仿Internet Explorer)来做到这一点。

以防万一遇到这种情况,我已经看到curl被有效地用于黑客攻击,以获取具有潜在弱点的数据(例如php相关漏洞),而上面的海报是正确的,可以考虑wget和curl正常的function,为什么要让别人更容易利用这些数据呢? 网站抓取仍然是一个问题,但更糟糕的是,当这些function可以用来绕过设置或访问默认文件夹中的应用程序(当然不应该放在默认的文件夹,但不会停止愚蠢的负载不仅这样做,但也保留默认的用户名和密码。)您可以通过设置标志或通过Apache中的.htaccess文件来限制这些。 为了解决这个问题,像libcurl这样的东西可以被自己利用 – 我个人会确保你的系统是最新的,并且是最新的,同时确保目录和密码是非默认的,然后看看如何限制某些代理运行(但正如gWaldo和DSpillett都表示,这些可能很容易被欺骗,并且有成千上万的其他方式来访问数据)

禁用curl,我认为它不能通过search引擎像谷歌阅读您的网站..因为curlfunction来阅读,查看和检索内容。 纠正这个错误