我正在构build的平台的一部分需要一个大的数据表(从数千万条logging开始,在一两年内扩展到数亿,甚至可能达到数十亿)。 数据表的结构是:int,int,float,datetime,datetime。 此数据表将接受来自单一来源(导入脚本)的数据,批量高达一千万行。 我完全控制导入脚本。 各种应用程序将拉动数据通过networkingAPI和可能是一个自定义的TCP服务器。 我预计要求以每秒高达5万的突发数量对单个行进行请求。 起初这听起来像是一个关键价值devise的很好的应用,但是许多请求将采取如下forms:
selectfloat,其中int = A和datetime <B和datetime <C按date时间sorting,date时间限制为0,1
基本的想法是,我得到一个给定系列的数据点,它具有在用户定义的阈值以下具有最新date时间对的数据点。 我可能会在应用程序层上做一些逻辑来一次抽取整个系列,但大部分的sorting仍然会落在数据库层。
我目前正在运行一个SQL Server 2005的原型,它的响应速度非常快,每秒1000个请求和1000万条logging。 我很担心在50,000个请求中扩展到数以亿计的行。
你怎么看? MySQL是否是工作的工具,因为它比SQL Server更轻量级? 我应该看看NoSQL解决scheme吗(甚至可以处理示例查询)? 欢迎任何其他想法。
谢谢!
theserge
MySQL是否是工作的工具,因为它比SQL Server更轻量级?
没有。
我看着NoSQL解决scheme(甚至可以处理示例查询)?
总的来说,没有…的原始性使得它们不合适。
看典型的TickerPlant解决scheme。 预计向上支付5万美元。 这是一个非常特殊的要求。 预计使用很多服务器。