这是一个场景:
一台运行2008 R2的文件服务器 所有的用户文件夹都在这里,我们使用文件夹redirect来redirect桌面,文档,联系人,collections夹等。我们构build了两台运行2012 R2的新服务器,并安装了DFSR和DFSN。 在其中一台服务器上,我们在四天前对整个用户文件夹进行了robocopied,这是由于两个原因 – 保留一个备份,并可能预先复制副本。
另一方面,我们创build了名称空间和复制组。 数据开始从旧的文件服务器复制,目前看起来都不错。 然后,(旧)文件服务器崩溃,需要重新启动。 这个中断的复制,并且此时包含部分播种数据的新服务器被从组中移除并重新添加。
在这一点上,似乎进展顺利,但是几天前,我们得到了大量数据丢失的报告。 现在,我应该说,我是由电话技术人员(这是一个24小时的操作)联系; 我不是最初从事这项工作的工程师,而且我对DFS的了解很粗略。 我做了一些审查,并得出结论,因为caching的大小设置为8GB,数据将不再保留在冲突和删除文件夹。 是的,我应该检查一下,但是凌晨2点,我半睡着了。
所以,我决定使用robocopied的数据重build它,不pipe是在夜间备份。 到目前为止,这已经持续了大约36个小时,直到今天上午停止。 所以,我发现了两件事。
所以我的问题如下:
欣赏任何反馈或build议。