情况如下: 机器A有一个可通过rsync访问的文件存储库 机器B需要上述所有权限和所有权完整的文件(包括组等) 机器C可以同时访问A和B,但拥有完全不同的用户。 通常情况下,我会直接在A和B之间rsync的一切,但由于目前严重有限的带宽,我需要不同的东西,因为rsync超时后build立430文件列表(49Mb未压缩…可以压缩到〜7Mb)。 到目前为止,我已经尝试了一下: rsync从A到C的所有内容,tar,复制压缩包,然后解压缩,但是,这会混淆所有权和/或权限。 要从A同步到C,我运行这个命令: rsync –numeric-ids –password-file=/root/rsync_pwd_file -oaPvu rsync://[email protected]/portal_2/ ./portal_2/ …从外观上来看,他们最终以正确的所有权/许可权/标志/所有权(不是100%确定,但是还有更多的开关可以扔进去吗? ?) 复制压缩包足够简单(由于带宽的缘故,单腿龟很慢,但是校验和没有问题) 我不确定的是用于创build和解压缩tarball的标志和开关,所以有人可以提供完整的命令来从机器C上的/ root / portal_2创build一个tarball,并将tar包解压到/ var机器B上的/ ex / portal_2? ? 另外,还有什么其他的方法值得一提,可以让我执行这个? 我有根访问A和C,而我只有rsync访问B. PS:我在机器B上运行rsync v2.6.9,不幸的是我没有机会升级到v3
root@myhost:/# ssh -i /opt/id_rsa.pub [email protected] Enter passphrase for key '/opt/id_rsa.pub': [email protected]'s password: 我已经创build密钥对没有密码,是否有可能在连接到远程服务器时摆脱密码提示? 我想在使用此命令时使用键连接: tar -c /opt/lampp/htdocs/somehost | ssh -i /opt/id_rsa.pub [email protected] 'tar -xvf – -C /opt/somefolder' > /dev/null 2>&1 & 这样,即使terminal丢失连接,文件传输也会继续。
如何将Linux机器上的50GB以上的文件备份到远程的sftp帐户。 我的要求 存储多个版本的备份。 在发送到远程服务器之前encryption。 磁盘和带宽效率,认为增量。 使用简单的linux命令(在Synology Diskstation上Busybox的首选支持) 我的解决scheme 目前我正在使用rsnapshot每天进行一次本地备份。 然后以rsnapshot方式存储每周,每月的备份。 然后每个月用tar进行一次完全备份,在发送给我的朋友之前,我使用gpg2进行encryption。 然后,我使用完整备份中的快照文件进行增量级别1备份。 但不幸的是,这并没有真正的工作。 因为每次执行rsnapshot时,我的文件都会得到新的date和其他东西。 它看起来像tar只使用date来validation文件是否已经改变。 问题 我能用这个解决scheme解决我的备份问题吗? 一种方法是备份原始文件而不是rsnapshot / rsync副本。 但是目前我不太相信tar,也许会错过其他的东西。 我想要一些校验和或其他更多性能友好的魔法。 我应该使用其他软件吗? 代码示例 这是我的脚本的简化版本,说明了这个问题。 cd ~ mkdir backup-test cd backup-test mkdir data mkdir rsync-copy mkdir backup # Create 10 10mb files for i in 0 1 2 3 4 5 6 7 8 9 […]
我有一个脚本,通过tar运行系统文件的备份作为我的服务器的cronjob。 每次脚本被解雇,它都成功完成任务。 所有的备份都经过testing,看起来可以正常工作,而且没有损坏。 但是,我的系统停滞了一段时间,它的速度落后于我的命令。 这与我运行graphics桌面的条件相同。 那么,为什么tar运行后系统会停止运行呢? 这是我的脚本中的命令在crontab中进行tar备份运行。 tar -zcvf tarbackup.tar.gz –one-file-system \ –exclude=/run \ –exclude=/tmp \ –exclude=/home \ –exclude=*.system.tar.gz \ –exclude=*.home.tar.gz \ / 编辑: 为了解决这个问题,我不得不每次重启。 我想知道为什么会发生,所以我可以探索运行tar备份的选项,而不必重新启动系统。
我正在使用tar -xf archive.tar -C /home/user/target/folder (在bash脚本中)将特定档案(archive.tar)的内容提取到目标目录(/ home / user / target /文件夹),以便目标目录中的所有现有内容将被新文件(包含在存档中)覆盖。 所有的工作都很好,但是我想省略一个目录(从提取并覆盖目标文件夹中的现有目录)。例如,如果archive.tar包含: folderA/ folderB/ folderC/ folderD/ fileA.php fileB.php fileC.xml 我怎么能提取(并覆盖)所有EXCEPT(例如)folderC /? tar –version输出tar (GNU tar) 1.23
一个星期前,我从一台云Linux服务器上下载了一个相当大的(6GB)备份文件,然后下载到我的Windows笔记本电脑上。 刚刚我们自己创build了一个新的云服务器,并决定在该服务器上重新部署该站点。 现在,我们是一家小公司,使用高端,但最终消费级互联网连接,虽然下载速度相当不错,但缺乏上传。 我计划在一两个星期内上传文件,我想知道是否有一个工具,可以将这个文件分割成多个段,所以我可以上传(使用FTP)在相对较小的部分。 在谷歌和这个网站上search失败了我,并主要指向在Linux服务器上拆分它的指示。 虽然这一切都很好,但我们没有内部的Linux服务器。 事实之后,如何重新join他们的链接的奖金点。
我有一个46GB的tar文件,其中包含旧分区的.img文件。 不幸的是,它在未tar的时候产生一个0字节的文件。 tar文件是在linux上生成的,现在我在windows上。 我试过WinRAR,和tar(来自unixutils)。 注意:它实际上原本是一个tar.bz2,但是在拆解时默认情况下bzip2默认会删除原来的档案,所以现在我只有tar文件。 无论如何,我能做些什么呢?
这是我不经常记住的事情之一。 我认为能够在这里得到答案是很好的,所以我(也可能和我一样记忆力差的其他人)可以将它列出来。 我用什么命令行选项将tar.gz文件解压缩到Linux上的特定目录中?
有没有办法在没有SSH访问的服务器上压缩目录? 我们正在转移很多域,并且当前服务器上没有可用的ssh。 我们希望在使用tar或zip进行压缩后保护目录。
我刚刚从家用的Windows 7电脑上将tar.gz存档上传到我的Centos服务器。 在此之前,它是从.zip压缩文件中提取的。 当我尝试提取它时: tar -xvf file.tar.gz gunzip file.tar.gz 它总是给我错误:“不是在gzip格式” 归档没有被破坏,因为可以在Winrar中的Windows中解压。 档案相当大,超过100 MB。 我不知道,这是什么问题。 请问你能帮帮我吗? 谢谢。 彼得