我有一个600万的数据库loggingarrays。 每个logging有100列。 有没有一个公式来计算服务器正在使用的内存量? 这是指数性的吗?
处理涉及将这些logging的内容写入XML文件。 它不会是600万个文件,但是它将是一个重要的数字。
我需要知道什么样的内存分配给这个过程之前,我开始。
如果没有公式,我应该采取什么措施? 任何见解都会有所帮助。
我们真的无法回答这个问题。
可以编写一个程序,一次从数据库中提取1个字节,并将其写入XML文件; 所以640K应该够了。
另一方面,程序可以将全部6亿个字段加载到内存中,然后分配写入每个XML文件所需的所有空间; 如果这些字段都是典型的整数,则需要6GB(600M * 4字节*〜2.5 = 6GB)的顺序。 如果他们都是10MB的JPEG图像更像15PB(600M * 10MB *〜2.5 = 15PB)。