Oracle Vs SQL Server可以处理大约6-7TB的数据

我正在寻找一些有效的点来selectOracle Vs SQL Server来处理大约5-6 TB的数据。 这些数据将在8个月内累计。 任何大于8个月的数据将从数据库中清除。

我正在考虑Oracle 11G标准版和SQL Server 2008标准版。

我不是在寻求开发的便利,我纯粹是在处理庞大的数据方面,仍然能够提供良好的性能。 除了performance,如果有任何参数有什么不同,那么请高亮。

我知道价格方面有很大的差异,但如果性能差异很大,这不是一个因素。

我希望得到没有偏见的答案,没有宗教战争。

你不会喜欢这个答案,但不是。 Oracle和MS SQL Server在大规模数据处理方面大致相当(SQL Server可以在易用性方面占优势,Oracle在实用程序方面),而当它真正归结为原始数据时,PostgreSQL实际上可以使它们同时出现经过优化后的利润率非常小。

但是,如果您确实需要一个“大”的数据库,那么当您合法使用64位ID列和TB数据时,这种数据库被certificate是行之有效的,那么它就是(IBM)DB2。

(就宗教战争而言,我是一个SQL Server的家伙,但即使我知道它的局限性)

我想这将取决于您的应用程序开发人员和操作工程师可以支持的内容; 我想你不会把这个数据集保存在一台服务器上,以实现冗余和性能。

如果您在8个月内写入6Tb,实际上并不是一个大规模的插入速率,那么对于任何体面的硬件来说,数据stream失都不成问题。

大部分的性能将会出自正确的devise,这在一定程度上取决于所使用的特定产品的特性。

如果没有对两者进行正确的devise,那么将完全原型化的应用程序与生产量数据进行比较,则无法进行比较。 我想这在成本方面将是无效的(开发人员试图构build两个原型,并在生产级硬件的全部数据负载上进行testing)。

我想,要么能够很好地完成这项工作,要么就是你所关心的任何事情。 这一切都是关于正确的应用程序devise,正确使用数据库的特定function。

它完全取决于这些数据是什么,它的存储方式以及数据处理方式

假设它只有一张表,那么Oracle肯定有'砍'这样做,但是你会想要带有分区选项的企业版。 这样,您可以将数据分成几个月,几周,几天或几小时,无论需要什么。 然后,保持8个月的滚动窗口(我认为它是一个滚动的窗口,而不是在8个月的时间内,整个事情将会被束缚),这是一件容易的事情。

使用任何解决scheme,你都会想要看看你如何去做这个滚动窗口,有些数据库不会太友善地删除大量的行。

另外考虑一下,你可能需要一些解决scheme来备份数据,并在合理的时间内从故障中恢复。

我也在想这个大小的数据库,你可能需要SQL Server企业版中的function。

http://www.microsoft.com/sqlserver/2008/en/us/compare-std-ent.aspx

企业往往具有可塑性特征。 我相信对于甲骨文也是如此。

有很多可能的因素影响答案,没有更多的信息很难给出明确的答案。 这些因素的例子是数据的来源是什么,需要logging的速度,需要查询的频率,分段的容易程度等等。

一般来说,Oracle确实有能力更好地处理更大的负载,并且可以在比SQL Server更强大的硬件上运行。

不过,我认为,就你所描述的大量而言,除非你的组织要求只使用这两种产品,否则考虑其他select也是明智的做法。

您可能更愿意查看专门devise来处理这些卷的“异国情调”数据库产品,例如Vertica,甚至考虑devise用于云服务提供商(如Amazon Elastic Mapreduce和Google)的大量卷的非关系产品App Engine数据存储。 这些产品在需要大量数据的行业(如电信提供商,金融服务行业和远程信息处理行业)正在获得推动力。

你还没有提到你是否将这个数据库用于在线事务处理,或者这是为了更多的数据仓库和商业智能。 两者都有一些特定的选项。 例如,Teradata想到处理大量的BI数据。

我不能说“5-6TB的数据”,但是我目前有1700名全职的胖客户端用户(使用.NET构build的应用程序)使用SQL 64位Itanium对1.5TB数据库进行攻击。

它performance很好。 我认为缩放问题不是数据库的大小,因为它是每秒用户和事务的数量。

甲骨文可以进行集群扩大容量,尽可能在每秒交易(在某些情况下),但我不一定会喜欢任何一个有关原始数据库大小。