我已经阅读了DDPEval.exe和各种博客等的文档,并找不到任何有关如何解释结果的信息。 我在我们的一台服务器上的驱动器上运行该工具,发现结果混乱,特别是关于“优化文件”和“压缩”。 为了尝试获得更多的理解,我只在特定的文件夹上运行该工具,那里没有NTFS压缩(内容是SQL Server备份)。 为简洁起见,我只会发布第二次testing的结果: Evaluated folder size: 69.07 GB Files in evaluated folder: 6 Processed files: 6 Processed files size: 69.07 GB Optimized files size: 15.61 GB Space savings: 53.45 GB Space savings percent: 77 Optimized files size (no compression): 69.04 GB Space savings (no compression): 26.93 MB Space savings percent (no compression): 0 […]
过去4个月,我一直在使用2012 R2 DPM来保护46 TB 2012 R2重复数据删除卷,却没有太多问题。 卷是低访问档案服务器。 该卷的当前使用量为23TB(如果不进行重复数据删除,则会更像38TB)。 同步期间传输的数据(每天两次)通常是几十GB的数量级。 还原点设置为每天上午12点。 然而,在星期六的预定同步期间,它开始传输大量的数据,并在星期一早上失败之前达到了9TB(它已经达到了90%的阈值,并且不能再增加复制数量)。 起初我曾经这么想过 一个。 服务器上突然出现了大量的数据, 要么 湾 很多文件已经被更改,导致它们不被重复数据删除 然而,在查看卷统计信息(我有一个独立的监控程序)时,受保护卷上的数据使用量在整个一周中一直保持在23 TB的水平 – 现在仍然是这样。 另外,周末没有人使用这个数量。 我目前正在对该卷进行一致性检查(这可能需要36个小时以上),以尝试使同步和还原点再次工作,但是同时,我需要找出造成这种情况的原因。 有没有人经历过这种行为? 我应该从哪里开始寻找? 我很喜欢DPM v 4.2.1292。
我正在考虑使用ZFS将备份文件保存到大多数离线的单个驱动器上。 有谁知道如果FreeBSD ZFS实现仍然使用内存,如果重复数据删除池被导出?
在NTFS重复卷上使用SVN似乎存在问题。 为了节省我的SSD上的空间,用于一些巨大的开发检查(每个大于5 GB),我启用了卷上的重复数据删除function。 这似乎导致SVN各种悲伤和疯狂。 通常的症状是E270001: Symlinks are not supported on this platform错误E270001: Symlinks are not supported on this platform这基本上会导致结帐。 你不能提交,合并或做任何事情了。 基本上svn +被删除的NTFS似乎完全破碎。 ( Subversion邮件列表 )里面有一些邮件线索,讲到了类似的问题,就在这个时候有了特殊的文件状态。 我假设Symlinks not supported问题基本上是一样的。 有没有什么办法让SVN能够与重复数据删除的NTFS卷一起正常工作(除了对APR自己APR Issue 47630的适当支持?)。
我需要从几百英里外的一台服务器上复制一个目录。 我和我的两个网站都有商业电报。 电缆为5 Mbps(Down)/ 768 Kbps(Up)。 这提出了一个小问题,考虑到我需要复制大约85GB的数据。 我使用了一个文件传输计算器,它表示将需要11天的时间和一些变化。 我想知道是否有任何方法来利用像DeDup这样的加速转移。 我将从Windows 2003 R2复制的服务器,我的盒子是Windows 7 Pro x64。 我打算将数据传输到运行Ubuntu Linux的iSCSI目标,ZFS和SCST。 ZFS是否会在传输过程中执行重复数据删除操作,因此数据是否需要在发送端进行解除处理?
我有一个ZFS备份服务器(Ubuntu 16.04; 32GB内存,4x6TB硬盘,raidz2)。 最近我发现空间有问题。 # zpool list -v NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT pool 21.6T 19.9T 1.76T – 62% 91% 2.30x ONLINE – raidz2 21.6T 19.9T 1.76T – 62% 91% sda5 – – – – – – sdb5 – – – – – – sdc5 – – – – – […]
我正在使用Windows Server 2012,并且为多个Hyper-V guest虚拟机(所有这些guest虚拟机都是Windows Server 2012)创build一个计划备份到可移动USB驱动器上的一个dynamicVHDX(这样我就可以交替两个驱动器,并有两个备份集)。 我意识到,因为驱动器上有许多类似的数据(每个客户操作系统的许多操作系统文件副本),所以重复数据消除可能会有所帮助。 所以我在驱动器上启用了它,并开始了优化工作。 它报告了8GB的保存(在我为testing创build的35GB的驱动器上,其中包含3个虚拟机的备份),但VHDX文件大小增加了4千兆字节。 VHDX文件(完整模式)优化后,我意识到,不仅重复数据删除没有减less驱动器的大小,它增加了它。 我唯一的解释是,自WSB(Windows服务器备份)在驱动器上创build卷影副本后,VSS和重复数据删除可能无法正常播放。 因此,VSS正在跟踪重复数据删除所做的更改,同时在卷上保留重复版本和重复数据删除版本。 我的结论是否正确? 有没有办法使重复数据删除与VSS协同工作? 由于备份数十个虚拟机意味着大量的重复数据。 这将是很好的重复数据删除工作!
我想了解Measure-DedupFileMetadata是如何工作的,所以我可以recursion地通过一些文件夹来报告实际使用了多less空间。 我不知道如何解释输出。 如果我正确理解文档,DedupDistinctSize应该告诉我,如果我删除这些文件(垃圾回收之后),释放多less空间。 这些数字对于我的大部分文件夹都显示正确。 但是在没有重复数据删除的文件夹上,它显示0。 我也不知道如何理解SizeOnDisk信息。 这是两个文件夹的输出: Path : {E:\veeam\folder1} Volume : E: VolumeId : \\?\Volume{77da8d6d-1416-4d2a-8c85-75c91f980398} FilesCount : 19 OptimizedFilesCount : 3 Size : 2.38 TB SizeOnDisk : 1.81 TB DedupSize : 491.38 GB DedupChunkCount : 6786488 DedupDistinctSize : 475.59 GB DedupDistinctChunkCount : 6561011 Path : {E:\veeam\folder2} Volume : E: VolumeId : \\?\Volume{77da8d6d-1416-4d2a-8c85-75c91f980398} FilesCount : […]
我有一个Start-DedupJob -type Unoptimize …已经运行了7个小时,仍然在0%的进展。 我正在重新configuration服务器,需要重新启动。 磁盘活动已被locking到接近容量,读写通常超过一百MB /秒。 我不确定它在做什么,但我可以重新启动,而不会失去工作的7个小时?
多个Windows虚拟机,他们都安装了相同的软件(他们实际上是克隆),我必须运行pipe理+授权的原因,给我头痛的存储明智的。 Linux上的KVM运行良好,但ext4不提供任何重复删除function。 有LessFS,它似乎不错,但是是谁在生产运行没有重大问题? 如果不是LessFS,那么问题是:是否有可用于KVM的生产就绪磁盘重复数据删除文件系统?