我已经在HP D2D系统上configuration了5个库 在Bacula服务器上的发现只显示最后一个库,而不是所有的库。 为什么? [root@server bacula]# iscsiadm –mode discovery –type sendtargets –portal 10.66.59.114 10.66.59.114:3260,1 iqn.1986-03.com.hp:storage.d2dbs.czj2020vvy.50014380075dca5e.library12.drive1 10.66.59.114:3260,1 iqn.1986-03.com.hp:storage.d2dbs.czj2020vvy.50014380075dcaf2.library12.robotics 我可以查询罚款使用… [root@server bacula]# mtx -f /dev/sg2 inquiry Product Type: Tape Drive Vendor ID: 'HP ' Product ID: 'Ultrium 5-SCSI ' Revision: 'ED51' Attached Changer API: No [root@bray bacula]# mtx -f /dev/sg3 inquiry Product Type: Medium Changer Vendor ID: […]
我使用一个中央git服务器(一个gitlab实例)。 开发人员将项目克隆到另一台服务器上的samba共享。 目前,我在其他服务器上备份了gitlab服务器和所有开发者directorys。 这花费了大量的磁盘空间。 理想情况下,我只想备份gitlab服务器。 我不能这样做,因为尚未推向它的更改可能会丢失(而且我不能将备份的责任转移给开发人员,例如强迫他们每天都推一次)。 有没有一个解决scheme,以重复数据与git? 我不确定是否在实际备份之前使用另一个重复数据删除系统,因为我认为在git packfiles更改时,对于另一个系统,甚至是很小的repo变化都可能很大。
我们有10.9-10.9.3的数量 – 小牛 – 机器安装在我们的设施。 许多用户内容是从启用重复数据删除的Windows Server 2012文件服务器上存储的共享内容中提取的。 我发现新写入或未优化的文件能够被访问而没有问题 – 读取,写入,修改等。一旦文件被optomized / deduplicated和Windows添加P&L属性 – 稀疏和符号链接 – 运行小牛的Mac开始有访问问题。 一旦文件被重复数据删除,用户在复制文件时就开始接收读取访问错误(参见下面的错误1)。 复制到当前文件夹树内的文件夹或将某处复制到本地系统时,会发生这种情况。 如果“停止”复制操作并重试几次,则最终可能会针对特定实例工作,但稍后会再次失败。 但是,我能够通过terminal复制这些文件,而不会有任何问题。 运行10.7的其他系统不会遇到同样的问题,并且能够访问文件服务器资源而不会出现问题。 许多有问题的系统更新,因此无法降级到10.8或10.7。 我试过Finderreplace,如探路者,但结果是一样的。 我知道这至less与许多Mac用户已经遇到和发布的问题类似,但是我没有看到它直接与重复数据删除和由Windows服务器写入的属性相关联。 有没有人看过这个问题? 有没有find解决办法? 错误1:在通过重复数据删除设置PL属性后复制文件时。 “一个或多个项目无法复制到”Foler“,因为您没有权限读取它们。************************* ***********” 通过system.log,在访问这些重复数据删除的文件共享时,我也看到以下错误。 下面列出的重新分析点标记是“IO_REPARSE_TAG_DEDUP” 报告错误:“smbfs_nget:filename.ext – 未知的重新分析点标记0x80000013”
我安装了一个临时存储NAS,使用各种硬盘驱动器和随机组件,躺在我的工作间。 它正在运行CentOS 7,通过廉价的虚拟RAID控制器连接一个8 500 GB SATA驱动器的软件RAID作为备用驱动器。 然后,我使用SDFS创build基本path驻留在软件RAID上的重复数据删除卷(即chunks.chk,数据库文件等所在的位置)。 然后安装SDFS卷并通过CIFS / Samba将安装的SDFS卷的文件夹共享到我的Windowsnetworking。 为了testing它,我复制了1.6TB的随机硬盘镜像文件到共享中。 像魅力一样工作! 我检查重复数据集307gb! 为我的DD映像文件节省了大量的空间。 然后,我从Windows计算机中删除了CIFS共享中的图像文件,这些文件用于复制文件。 但是,307gb chunks.chk文件仍然存在,并且共享映射时,即使删除了文件,并且它们不再存在于共享中,仍会报告使用了307gb。 有两个问题,第一,SDFS是否具有内置设置,当从已装载的SDFS卷的文件夹中删除文件时,我可以启用清理chunks.chk文件? 主要是,我的问题是,删除chunks.chk文件是否安全,知道我不再存储,或打算存储在chunks.chk文件夹中的数据? 非常感谢您宝贵的见解!
在每次备份之后使用Windows Server Backup时,服务器会在备份文件夹的重复数据删除列表中进行排除。 有没有办法阻止这种行为? 如果没有,有没有办法让Powershell删除排除? 编辑:Powershell命令是; Set-DedupVolume -Volume Y: -ExcludeFolder {} 如果可能,我宁愿防止这种行为。
我已经在Windows Server 2012 R2中安装了一个重复数据删除卷。 当我尝试从卷复制文件到另一个我得到错误0x80070519 revision level is unknown 数量似乎是健康的,否则: PS C:\ Users \ Administrator> Get-DedupMetadata Volume : B: VolumeId : \\?\Volume{63545545-e9fc-11e1-be6d-c86000c32999}\ StoreId : {5ADD827E-A0EF-430E-920C-72198453D560} DataChunkCount : 5203495 DataContainerCount : 351 DataChunkAverageSize : 70.33 KB DataChunkMedianSize : 0 B DataStoreUncompactedFreespace : 0 B StreamMapChunkCount : 140519 StreamMapContainerCount : 5 StreamMapAverageDataChunkCount : StreamMapMedianDataChunkCount : StreamMapMaxDataChunkCount : […]
我试图清楚从重复数据删除表/内存影响的angular度来看,zfs重复数据删除是如何处理池中某些(但不是全部)数据集的情况。 我在2012年发现了FreeBSD邮件列表中的这句话 : “请注意,只有启用了重复数据删除的文件系统才会参与重复数据删除。重复数据删除=closures的文件系统不会经过重复数据删除。” 例如,假设我们有两个zpools,A和B. Pool A有4个数据集,包含21 TB的数据: 数据集#1和#2每个都包含0.5 TB的数据和重复数据删除 数据集#3和#4每个都包含10 TB的数据,并进行重复数据删除 池B有一个包含1 TB数据的数据集,并进行重复数据删除。 很明显,重复数据删除function适用于整个每个池。 不清楚的是,重复数据删除的内存影响是否仅基于重复数据集? 换句话说,所有其他条件相同的情况下,池A和池B的重复数据删除表大小和内存影响是否相似,或者池A的池内的重复数据池大小是否大于池B? 我认为重复数据表必须是相似的(设置池范围,但不影响任何非重复数据集的大小),主要是因为如果它大得多,就相当于强制对整个池进行重复数据删除,而不仅仅是特定的数据集。 但是,我不清楚这是否真的如此。
如何列出所有ZFS重复数据删除块以及与每个块关联的文件? 例如: BLOCK FILES e6b678a /pool/a/file1 /pool/a/file2 如果这是不可能的,那么确定在文件中使用哪个重复数据删除块呢?
我停用了其中一个驱动器上的重复数据删除function,因为它不适用于备份系统。 然后,我开始在pipe理PowerShell中进行优化。 之后,我意识到我没有把优先级提高,所以作业运行得更快,因为此刻服务器上没有任何负载。 所以我试着停止工作,得到这个: PS C:\Windows\system32> Stop-DedupJob Stop-DedupJob : The term 'Stop-DedupJob' is not recognized as the name of a cmdlet, function, script file, or operable program. Check the spelling of the name, or if a path was included, verify that the path is correct and try again. Stop-DedupJob + ~~~~~~~~~~~~~ + CategoryInfo : ObjectNotFound: […]
在Windows Server 2016中有一个卷是重复数据删除angular色的目标。 它工作得非常好〜约60%的节省率,许多文件在磁盘上显示为零字节。 该卷是通过中小企业共享,并在Mac,Windows和Linux客户端上正常安装。 后两者可以正常使用所有文件,但Mac不能。 在显示为使用零磁盘空间的任何文件上,Mac都不知道如何读取它们。 他们不能打开或阅读,并在Finder中的副本生成Error code -36 。 在正在工作的客户端上,将该文件复制到一个新的文件,以使其尚未被重复数据删除,从而允许Mac读取该文件,因为它现在似乎使用磁盘空间。 例如,在Ubuntu上执行以下操作将使该文件失去优化: cp original_file.csv temp && mv temp original_file.csv 这是一个可以解决的问题吗,或者是macOS有什么问题,或者它实现SMB的方式?