我已经search了,到目前为止我发现的最接近的事情是另一个SF问题: Azure存储限制
目标:
将大约50TB的存储空间移动到云端,将该存储作为标准的Windows文件共享,并随着其持续增长而相对容易地扩展。
问题:
看起来,单个VHD只能是1TB的大小,显然不好。
我不认为这里有人可以提供解决scheme吗?
感谢您的阅读,
泽维尔。
尝试调查Microsoft DFS命名空间并开始在Azure中分离数据 – 我已经完成了一个类似的项目。 在哪里添加一个单独的VHD,然后在第一个驱动器下安装另外的1TB VHD作为安装点
100GB磁盘安装为D:
然后,第N个1TB VHD将安装在D:\ Disk1 … D:\ Disk50下,然后使用DFS命名空间分享数据,例如\ DOMAIN \ SHARES \ Finance将映射到\ NEWFILESERVER \ DISK43 $ \ Finance等。
不是最理想的,但将在Azure的当前技术限制内工作。
我希望我已经解释了,让你开始 – 如果你需要更多的帮助,请随时与我联系。
好运上传50TB可能值得考虑的是,如果将这些数据存储在Azure中比存储在办公室中更具成本效益,但会增加WAN / Internet链接。 这就是说你不必担心新的硬件等。 上面的解决scheme可以很好地扩展我想象的。
Azure文件服务可能对您有用。 正如HBrujn所指出的那样,1TB远远超过了你想要的50GB。
Azure文件存储服务允许您创build最大5TB大小的文件共享,每个文件最大为1TB。 这实际上是一个SMB卷,具有基础的REST API。 您可以从Azure资源和本地资源访问此共享。
由于您正在处理50TB,您需要创build多个文件服务卷。 Azure存储每个存储帐户最多支持500TB,但不能作为单个文件共享。 您可以将file upload到离散的blob,允许您访问完整的500TB,但这不会提供SMB接口; 相反,你必须依赖你select的语言特定的sdk(.net,java,python,node,ruby,php),或者直接调用REST来处理这些离散对象。
至于将内容移动到云中,您可以使用自己的应用程序(一旦连接到文件共享)来执行此操作,或者使用AzCopy之类的工具,该工具现在支持文件服务作为源/目标。 看到这篇文章 ,提到AzCopy,你将如何使用它来传输到文件服务。