大量低开销请求

我有一个应用程序将处理通过不同的互联网硬件设备发送的大量,低开销请求来接收数据。 随着越来越多的设备被添加到系统中,这些数据将被不断地接收,并且将来只会增加。 一旦接收到数据,经过一些小的处理,它将被插入到数据库(MySQL)中。

我的问题是,我应该使用什么样的服务器软件? node.js是在给定的硬件约束下处理这种请求的最大数量的最佳候选者,还是nginx对于这样的应用程序更好? 还有处理这种请求的最佳做法吗? 例如,我读了如果使用node.js,我可能不得不看看操作系统的ulimit ,以确保在大量的并发请求的情况下,可以创build足够的文件…

谢谢。

至lessnewrelic说,java是最好的:

主要的New Relic Web应用程序一直是Rails应用程序。 数据收集层最初是用Ruby编写的,但最终被移植到了Java。 这个变化的主要驱动力是性能。 目前这一层支持每分钟超过18万个请求,响应时间大约为2.5毫秒,并有足够的空间。

来自http://highscalability.com/blog/2011/7/18/new-relic-architecture-collecting-20-billion-metrics-a-day.html