Articles of rsync

我应该通过千兆局域网使用rsync压缩吗?

我通常使用rsync的-z选项在Internet上传输文件时启用压缩。 但是,如果我在自己的(闲置)千兆位局域网上,我还想压缩吗? 还是没有它会更快? 这取决于什么因素? (我还没有做任何基准)。 所以基本上,压缩+传输+解压缩,还是传输未压缩更快? 如果你的networking连接速度很慢,压缩显然是更好的…但是如果一切都在千兆以太网上运行,怎么样?

家庭服务器的最佳Linux备份方法是什么?

我目前使用rsync和本地USB驱动器来备份我的Fedora Linux服务器。 到目前为止,这似乎符合我的需要,但我怀疑有更好的方法来解决这个问题。 很久以前,我曾经使用过磁带,但现在我的服务器备份磁带备份的尺寸已经超出我的价格范围。 自动化会更好。 尽pipe我想我可以自动化我当前的rsync备份,但这意味着我们一直在使用USB驱动器。 思考?

使用rsync命令进行SVN备份

我设置了一个cron,将备份我的SVN回购(8 GB)到另一台服务器。 但有时我会得到错误,我觉得这不是将svn备份到远程服务器的正确方法。 我使用了命令rsync -avz myrepo。 请build议我一个很好的方法来执行svn备份到远程服务器。 因为它是7 GB,我不能压缩文件并且每天传输它。 谢谢

有一个非特权的非帐户用户SSH到另一个盒子?

我知道如何让一个用户ssh到一个关键的另一个框: ssh -l targetuser -i path/to/key targethost 但是像apache这样的非帐号用户呢? 由于这个用户没有一个可以写入.ssh目录的主目录,所以整个事情都会失败: $ sudo -u apache ssh -o StrictHostKeyChecking=no -l targetuser -i path/to/key targethost Could not create directory '/var/www/.ssh'. Warning: Permanently added '<hostname>' (RSA) to the list of known hosts. Permission denied (publickey). 我已经尝试使用-o UserKnownHostsFile=/dev/null并将$HOME设置$HOME /dev/null并且这些都没有成功。 我明白, sudo可能可以解决这个问题,但我试图避免需要手动服务器configuration,因为这些代码将被部署在许多不同的环境。 有任何想法吗? 以下是我尝试过的一些不起作用的示例: $ sudo -u apache export HOME=path/to/apache/writable/dir/ ssh -o […]

带Rsyncrypto的Subversion版本库的RSync备份

这是从stackoverflow crosspost,因为我发现我可能会在这里得到一个合格的观众 情况 我有一个非常大的Subversion版本库,我试图有效地备份。 版本库大小约为6 GB,并在不断增长。 一些大的承诺大小在500到1GB左右。 我正尝试通过Internet上行链路将此存储库备份到非现场位置。 解释它的庞大规模 任何人想知道,各个站点(configuration文件,EXE,数据文件)的整个生产环境都保存在这个存储库中,这样我们可以回滚到现有的工作版本,并跟踪生产设置的变化。 代码保存在不同的存储库中。 如何 这是我实际上在做什么: 使用“svnadmin hotcopy SRCDIR TGTDIR”将存储库备份到服务器上的工作文件夹 使用“rsyncrypto -r SRCPATH DSTPATH KEYSPATH CERTIFICATE”encryption和压缩该存储库 使用“rsync -Crtv” (实际上是cwRsync,因为我在Windows上运行)将encryption版本备份到异地位置 问题 首先,我必须说它是有效的,但它仍然有一个潜在的问题。 问题在于,我期待每次进程运行时,只有新的修订文件/数据将被复制([repos] / db / revs / 0 / …),因此只需要带宽和时间做了一个大的承诺。 但是,相反: 如果我多次运行第3步,rsync的行为应该如此,没有任何东西被复制,因为没有任何改变。 如果我只运行多个步骤#2和#3,rsync也performance良好。 envrypted版本每次都是一样的,rsync不必传输任何东西。 但是,似乎每次运行全部三个步骤 (对存储库进行了新的提交),整个存储库都将被重新上传 。 因此,摆在首位使用rsync的全部目的。 就好像[repos] / db / revs / 0 / …中的文件每次做一个hotcopy都在改变。 问题 […]

Cygwin的RSYNC用于大数据传输

我使用Cygwin的rsync来执行从老化的HP MSA 1000到连接到不同服务器的新DAS的大规模数据传输。 我有一个守护进程在远程服务器上以只读模式运行,本地拷贝将文件写入磁盘。 我的一台服务器是一个映像存储库,有超过一百万个文件分布在大约300个目录中。 每个文件平均只有几百千字节。 这个比其他任何一个盒子都更有问题。 rsync进程会工作一段时间 – 有时是20分钟,有时是一个小时 – 然后它只是在给定的文件名下退出并闲置。 我已经validation该文件在远程服务器上没有损坏,并且该文件在本地驱动器上成功创build。 我在-vv模式下运行rsync客户端,它不返回任何内容。 我检出了守护进程创build的日志。 我查看了闲置的接口上的networking利用率。 我查看了AV设置,看看有没有什么可能会造成问题。 我甚至更新到Cygwin的最新版本。 为了保持这种联系,我需要什么? 编辑: 客户端系统正在使用该命令 rsync.exe server::Drives/f/Repo/ /cygdrive/T/Repo –archive -P -vv 服务器正在使用rsync.exe命令–daemon –no-detach –config“rsyncd.conf” rsyncd.conf的内容: use chroot = false strict modes = false hosts allow = 192.168.100.9 log file = c:/rsyncd.log uid=0 gid=0 [Drives] path = /cygdrive read only […]

同步本地文件夹

保持同步两个本地文件夹的最佳方式是什么? 我知道我可以使用rsync -Ra,但我需要始终保持同步。 有可能使rsync坐在后台,并不断同步本地文件夹。

rsync在一段时间后意外终止

我在ssh会话中使用nohup运行一个rsync命令,但过了一会儿,它返回这个错误: rsync error: received SIGINT, SIGTERM, or SIGHUP (code 20) at rsync.c(549) [generator=3.0.9] rsync error: received SIGINT, SIGTERM, or SIGHUP (code 20) at rsync.c(549) [receiver=3.0.9] 我并没有自己杀死这个进程,我认为没有任何其他进程会杀死这个进程。 我也用nohup运行它的前景。 我使用nohup因为任何原因ssh会话终止, rsync进程不会终止。 什么导致终止? 操作系统是Debian Wheezy。

Rsync需要8个多小时来备份15M +文件

我有〜700GB的存储空间,我存储了大约15M的文件,因此平均文件大小是〜50KB。 为了备份,我整晚运行一个简单的rsync脚本,其中包括以下一组标志: –archive –update –compress –numeric-ids –human-readable –stats rsync需要8个小时才能完成工作,平均每天有大约1-4GB的数据移动。 对我来说,这似乎是非常低效的。 我可以调整我的rsync脚本吗? 我想我最好的select是数据迁移到MongoDB或类似的东西,但是有一个问题,因为当前的基础设施依赖于在posix文件系统上访问的文件,迁移到完全不同的东西可能需要额外的工作,潜在的工作太多…还有什么最好的策略?

rsync -a不会复制ext3属性

我只是偶然发现,rsync不保留至lessext3“不可变”的标志 – 而它应该这样做,当使用-a ,恕我直言。 快速testing案例: # touch testfile # chattr +i testfile # rsync -a testfile testfile2 # lsattr testfile* —-i———- testfile ————— testfile2 rsync的手册页讲述了-a开关: 文件以“归档”模式传输,确保在传输过程中保留符号链接,设备, 属性 ,权限,所有权等。 有人可以请点亮一下:如果不是底层文件系统的属性,这里的“属性”是什么意思? 如果它真的意味着其他的东西:是否有可能同步ext3属性?