我有rsyncd作为一个Windows服务运行,但是当我尝试访问一个模块并从它同步,我得到我想要的文件,以及我没有 – 因为他们不是位于远程模块结束。 为了testing,我只把一个文件放在备份文件夹中,名为“the_only_file”。 从我的本地机器: username@local:~$ rsync username@remote::backup . receiving incremental file list file has vanished: "/proc" (in backup) file has vanished: "/cygdrive/c" (in backup) file has vanished: "/cygdrive/d" (in backup) skipping non-regular file "dev/clipboard" skipping non-regular file "dev/conin" skipping non-regular file "dev/conout" skipping non-regular file "dev/console" skipping non-regular file "dev/dsp" skipping non-regular file "dev/full" […]
在一个rsync我试图排除与模式匹配的子目录。 但是,我无法让它工作。 我已经跟随在这里和谷歌上find的几个例子。 但是,我没有得到正确的结果。 这里是我的命令的选项: -avh –exclude 'branch*' –stats –delete –link-dest=$LNK 我的源代码目录结构是 /root /branch1 /branch2 /branch3 /other /stillAnother /etc 这是备份脚本的一部分。 $ LNK是指向前一天的rsync目标的链接。 我不想要/ root / branch1,/ root / branch2,/ root / branch3。 或者他们的内容被同步。 但是,他们是。 这里是我已经尝试过的排除位: –exclude=branch* –exclude='branch*' –exclude '/branch*' –exclude /branch* 感谢您的任何帮助/build议。 编辑 – 解决“可能重复”的标志 这个问题是关于一个已知的目录列表。 我需要排除模式后面的任何目录,即使这些目录还不存在。 即从我的例子,其他目录名为/branch*可能会被添加。 我需要使我的脚本具有前瞻性,并避免在添加与模式匹配的目录时编辑脚本,因为这些目录可能是临时的。
我在configuration文件中有以下设置:(/etc/rsnapshot.conf) 脚本/工具: http : //www.rsnapshot.org/ backup_script ssh [email protected] "sh /home/user/backup_mysql.sh" ./mysql 该示例显示如下: backup_script ssh [email protected] "mysqldump -A > /var/db/dump/mysql.sql" unused2 我得到的错误: ERROR: backup_script /usr/bin/ssh returned 255 我究竟做错了什么?
目前我正在使用以下手动过程将我的PHP网站从分段部署到生产: 使用在线YUI压缩工具来缩小CSS和JavaScript文件。 将原始的CSS和JavaScript文件移动到另一个目录(备份它们),然后用缩小的CSS和JavaScript CSS文件replace它们。 开始将所有文件从暂存服务器复制到我的Windows PC。 删除staging .htaccess和索引文件,以便它们不会被复制到生产服务器(这些文件具有特定的临时环境内容)。 打开WinSCP并转到生产服务器上的Web根目录,然后将主索引文件换成“更新正在进行”,这样如果有任何访问者来到网站,他们会收到一条消息说暂时closures。 然后使用WinSCP从我的电脑复制到生产Web服务器(这将覆盖服务器上的所有现有文件),大约需要4分钟才能看到有很多文件。 使用SSHlogin到生产服务器,并运行大约5条命令,为各种可写目录设置适当的权限,并确保所有内容仍位于www-root组下。 我认为使用SSH的上传过程会改变所有现有的权限。 将“正在更新”索引文件切换回正常索引。 所有这些过程都是非常复杂的,大概需要5-10分钟,每当我对网站进行更改时,我都必须这样做,所以这已经变得很麻烦。 现在有什么办法使用一些脚本工具来自动化这个过程吗? 还是有一个很好的部署工具,人们使用,可以做到这一切? 我的舞台和生产机器是基于Ubuntu 12.04服务器,所以我可以使用bash脚本来完成一些工作。 我能看到的一些改进可以做到如此: 将一些代码添加到我的网站,以便检测它是否处于暂存或生产状态,然后根据环境使用原始或缩小的CSS / JavaScript文件。 这将节省我手动交换文件。 使用命令行YUI压缩器,并在需要时从脚本文件运行。 使用像rsync这样的东西,所以它只是从我的登台服务器复制文件到生产服务器不覆盖每个文件 我所从事的一家公司使用Fabric命令行工具来自动化部署并做这种事情。 然而,这是一个很好的select,还是有更好的工具吗?
应如何configurationForceCommand以允许备份用户执行任何rsync命令? 随着ForceCommand设置为/ usr / bin / rsync我收到以下错误:连接意外closures… 远程服务器上的/ etc / ssh / sshd_config托pipe要从以下位置复制的文件: Match User backup PasswordAuthentication no PubkeyAuthentication yes AllowTCPForwarding no X11Forwarding no ForceCommand /usr/bin/rsync 在本地服务器上运行rsync命令,从远程服务器进行复制: rsync -avzh –progress [email protected]:/opt/backups/automatic/cron/mysql/ /tmp/. rsync: connection unexpectedly closed (0 bytes received so far) [Receiver] rsync error: error in rsync protocol data stream (code 12) at io.c(601) [Receiver=3.0.7] […]
什么是最快的方式来复制一个文件夹包含几百megs大小的几个文件和其他几个megs小文件? (比如/ var / lib / mysql)cp或者tar或者rsync或者…?
我们有一个小型networking,中间有一台Ubuntu服务器,周围有Ubuntu笔记本电脑。 笔记本都使用eCryptfs来encryption整个用户的主目录。 通常,每个笔记本有两个或更多的用户。 备份过程停留在networking中,所以我们可以将未encryption的文件传输到服务器上。 我们想要一个基于rsync的解决scheme,但也适用于其他人。 当我们尝试备份笔记本的主目录时遇到了困难,这给我们带来了很大的麻烦。 这归结于: 如果用户Alogin,则主目录被解密,并且/home/.ecryptfs/A中的encryption文件被locking而不能读取其他进程(这是一件好事) 如果用户B 没有login,他的主目录不被解密,只有/home/.ecryptfs/B的encryption文件。 我们需要有一个备份脚本,可以运行,而用户Alogin(因为她在我们的情况下手动启动),用户B可能会或可能不会login(通常不)。 现在的问题是: 我们应该备份什么? 如果我们去encryption的数据,用户A的东西不能备份。 解密的数据意味着另一方面,用户B也必须login。 并且把这两种线索混合在一起,这是一个有趣的时刻,当谈到恢复的时候。 这个问题可能还有别的解决办法,我们错过了吗?
有没有办法build立一个Windows服务器什么可以成为其他Windows文件服务器与rsync的目标?
我有一大堆可存储到文件中的数据(+ 100 GB)。 大部分文件将在5k-50k范围内(80%),然后是50k-500k(15%)和> 500k(5%)。 文件的最大预期大小是50 MB。 如有必要,可以将大文件分割成更小的块。 文件也可以组织在目录结构中。 如果一些数据必须修改,我的应用程序会复制,修改它,如果成功,将其标记为最新版本。 然后,旧版本被删除。 它是安全的(可以这么说)。 我需要实现一个故障转移系统来保存这些数据。 一种解决scheme是使用主 – 从数据库系统,但是这些系统是脆弱的,并且依赖于数据库技术。 我不是系统pipe理员,但我读了关于rsync指令。 它看起来很有趣。 我想知道是否设置一些故障转移节点,并从我的主人使用rsync是一个负责任的select。 有没有人试过这个成功? 如果是的话,我应该分割我的大文件吗? 是rsync智能/高效地检测哪些文件复制/删除? 我应该实现一个特定的目录结构,使这个系统高效? ii)如果主服务器崩溃并且一个从服务器接pipe了一个小时(例如),那么是否使主服务器再次像最新一样运行rsync(从服务器到主服务器)那么简单? iii)奖金问题:是否有可能使用rsync实现多主系统? 或者只有主人奴隶可能? 我正在寻找build议,提示,经验等…谢谢!
我有一个简单的脚本,它使用rsync将Postgres数据库复制到备份位置,以便与Point In Time Recovery一起使用。 脚本每2小时通过postgres用户的cron作业运行。 出于一些奇怪的原因,我可以看到在进程列表中运行的rsync的三个副本。 任何想法为什么这可能是这种情况? 这是cron条目: # crontab -u postgres -l PATH=/bin:/usr/bin:/usr/local/bin 0 */2 * * * /var/lib/pgsql/9.0/pitr_backup.sh 这里是ps列表,它显示了rsync运行的两个副本和一个睡眠: # ps ax |grep rsync 9102 ? R 2:06 rsync -avW /var/lib/pgsql/9.0/data/ /var/lib/pgsql/9.0/backups/pitr_archives/20110629100001/ –exclude pg_xlog –exclude recovery.conf –exclude recovery.done –exclude pg_log 9103 ? S 0:00 rsync -avW /var/lib/pgsql/9.0/data/ /var/lib/pgsql/9.0/backups/pitr_archives/20110629100001/ –exclude pg_xlog –exclude recovery.conf –exclude […]