我有一个内联网服务器(join到域,可通过域帐户访问),另外一个在外联网 (未join到域,可通过使用本地帐户的跳站访问)。 域内用户可以访问Intranet服务器上的共享文件夹,他们可以根据需要更新内容。 这些文件夹需要同步( 1路同步 )到外联网服务器。 Extranet服务器(或DMZ中的服务器)受到保护,无法进行任何基本访问,只允许特定端口访问特定端口(RDP,端口3389,仅允许某些子网; HTTP,端口80仅允许用于HW负载平衡器等)。 由于这一点,我不能使用文件共享,这使得robocopy游戏,我不能使用DFS-R,因为这两个服务器不在一个域中。 我已经search了一些免费的同步应用程序,但所有这些都基于可以访问对方的两台服务器之间的同步。 我正在寻找服务器客户端同步软件,在特定的端口上工作(这将被排除在防火墙)。 我的想法是,客户端(Intranet中的服务器)将通知服务器(Extranet中的服务器),某些文件被添加/修改/删除,并将这些文件/更改发送到服务器以将其存储在configuration的文件夹中。 当然,ACL在这里并不重要 – 存储在目标服务器上的所有文件都将具有来自父文件夹的默认(inheritance)权限。 在过去,我使用了微软的一个非常老的工具,叫做“Microsoft Site Server 3.0 Content Deployment” 。 此工具超过10年,不再工作 – 它需要一个域用户帐户,如果DFL和FFL太高(> W2K12),则无法find该用户帐户。 感谢您的帮助或build议。
我正在使用Unison与云存储服务器同步本地目录(比如“/ local”)。 云存储通过sshfs(无caching选项)挂载到“/ mnt”,并且将本地和/ mnt两个目录与Unison同步。 [我没有对服务器的root访问权限,并且Unison未安装在服务器上,因此无法与Unison进行真正的远程同步。] 总之,我正在寻找一种安全的方法来同步多台计算机的本地目录与服务器(包括正确处理删除的文件)。 我假设本地目录之间的Unison同步原则上是安全的,只要连接没有任何事情发生。 但是如果在Unison工作时sshfs连接断开呢? 不幸的是,我不明白sshfs连接是如何工作的,以判断是否存在数据丢失风险。 假设Unison在连接中断时正在将修改的文件写入/ mnt。 它会退出一个错误(我认为是安全的)? 我担心的是它会继续写入到/ mnt,尽pipe连接已经断开,然后将文件标记为已成功传输到文件中,尽pipe该文件并未真正写入服务器。 这可能发生吗? 如何读取进程? 看来,当Unison正在读取/ mnt时断开连接时,它总是失败,错误消息是/ mnt已经完全清空(好!)。 但是有没有什么情况可以得到这样的信息:只有部分/ mnt中的数据丢失,然后错误地认为这些文件已被删除? 编辑:再读一遍Unison手册,我知道“安装点”参数。 但是,手动声音的方式,在检测到更新后,Unison只检查一次挂载点的存在。 所以如果在文件传输过程中连接中断,我仍然可以看到出现问题的风险。 编辑2:本质上,我的问题是这样的 – 似乎没有答案 – 在fuseforge邮件列表中的问题: https ://sourceforge.net/p/fuse/mailman/message/1605382/
我想定期在我的ubuntu笔记本电脑X机器上备份我的主目录。假设我可以访问2个不同的远程(linux)服务器,我可以备份到机器A和B.机器X将是主机,应该是同步到A和B.我可以经常运行rsync从X到A,然后从X到B.这就是我所需要的。 但是,我很好奇,如果有更多的带宽有效,因此更快的方式来做到这一点。 假设X将在住宅式的宽带线路上,并且由于我不想吸收带宽,所以我将限制从X转移.A和B将一直在,但是X不会,所以我也想减lessX传输的时间,可能会让A和B花费更多的时间进行传输。 另外,X将不会始终连接。 什么是最好的方法来做到这一点? rsync从X到A,然后从A到B? 正确的时机可能是麻烦的。 我不想保留旧文件,所以如果我是rsync,那么将使用–del选项。 这是否意味着可能会从A转移到B,然后从B中删除,然后再从A转移到B? 这是不理想的。 我知道有很多像gluster这样的分布式文件系统,但是我认为在这种情况下这太过分了,并且可能不适合于断开的性质。
我们正在考虑在我们自己的系统上托pipe客户端的数据,并使用MS Sync Framework在每个客户端的站点上使用SQL Server实例复制数据。 每个客户平均可能有大约500MB的数据,可能有多达1000个客户端站点,所以我们总共有大约500GB的数据。 数据更改将需要在两个方向上进行复制。 有没有人试图用这个客户端数量的分布式系统? 有没有实际的限制?
我很难find具有以下特征的备份和同步解决scheme: 跨平台:Windows,Linux,Mac 仅传输修改文件的新/修改位 维护多个版本的文件(甚至是被删除的文件) 重复数据删除 异地备份(所以Internet备份) 安全:在离开电脑前encryption数据 与备份集成的文件夹同步以及连接到互联网的多台计算机(不一定在同一个LAN中) 我认为文件夹同步function需要更好的解释。 用例是这样的:你有台式电脑和笔记本电脑。 桌面PC包含一些文件的文件夹,这个文件夹是备份的一部分(所以它被选中备份)。 笔记本电脑根本不包含那个文件夹或那个文件。 然后,你在你的笔记本电脑在国外,你需要该文件夹。 所以你想打开备份程序,从备份中select该文件夹(因为它是一个备份的互联网备份解决scheme,所以该文件夹将在互联网上的某个服务器),并下载到您的笔记本电脑保持同步与备份版本。 当你回到家,开启台式电脑时,你需要在桌面电脑上更新我们正在讨论的文件夹。 有没有人知道所有这些function的任何服务? 我只发现SpiderOak支持我提到的所有function,但是我完全不满意完成备份的时间。 有时似乎没有任何理由挂起数分钟,并且文件夹同步仅在所有文件被备份后才发生(相反,文件夹同步应该具有独立于其他备份操作的独立队列,并且同步应该频繁地发生…例如每5分钟或更less,与正常备份操作的频率无关)
我在EC2中有一个Windows实例。 我手动将时区设置为太平洋。 1)出于某种原因使用窗口的内置时间同步在实例中不起作用…但无论如何。 我closures自动时间同步… 但2)重新启动时,服务器上的时间变化! 例如,如果我在星期三下午4点重新启动它,当服务器恢复时,它将在周四中午12点读取! 因此,对SImpleDB等Amazon的其他服务的任何访问都会失败,因为生成的时间戳距离当前时间太远。 有没有人看到这个或计算出来?
在运行连接到我们的MacOS X 10.6.6服务器的MacOS X 10.6.6的干净安装的MacPro机器之一上,使用便携式主目录同步数据失败。 这似乎是由于家庭同步过程中文件同步代理崩溃。 我们得到-41和-8026错误,我们怀疑是指示数据太多或文件同步代理不能读取文件。 用户是文件的所有者,可以读取/写入所有文件。 错误-41复制/卷/ RCAUsers / earlpeng /图书馆/邮件/邮箱/电子邮件从旧的imac./Attachments/12081/2.2。 (来源=否) 错误-8062复制/卷/ RCAUsers / earlpeng /图书馆/邮件/邮箱/电子邮件从旧imac./Attachments/12081/2.2/don@finale .tv.vcf。 (来源=否) <Logout> 1 :: [11/02/04 13:10:42.758] – [DeepCopyContext deepCopyError:sourceError:sourceRef:]:error = -8062,wasSource = NO:return shouldContinue = NO
我有3个Web服务器为我的PHP应用程序。 在Web服务器之前,有负载平衡器。 我的应用程序有一个上传图像forms。 我需要通过我的表单上传任何上传的图像,同时在所有3个Web服务器上。 我尝试着思考各种方法,但是我不能决定哪种解决scheme对于生产环境来说是完美的。 我所有的服务器都是Debian Squeeze。 你能否为我提出新的想法或者回顾一下我的想法: PHP脚本可以保存图像三次:一个到本地服务器和另外两个networking服务器通过networking共享或其他。 PHP可以将映像保存到本地文件系统,并启动rsync操作将上传的文件发送到其他两台服务器。 上传文件夹可以只在一个Web服务器上。 在另外两台服务器上,上传文件夹可以是远程ssh安装(带有保险丝或其他东西)。 (但是有了这个select,我应该承担单点失败的风险,这是一件坏事) 图像可以保存另一台服务器,如数据库服务器(MySQL,PostgreSQL),但我不希望图像在数据库中。 有什么build议? 谢谢,UGUR
我们目前在国内的不同地方有两座build筑,一座是带有漫游configuration文件的文件服务器和一台域控制器,另一座build筑只有一个域控制器来处理本地login。 虽然在本地复制DC有助于提高性能,但通过VPN链接同步漫游configuration文件是login和closures的杀手,我唯一的想法是在本地复制漫游configuration文件,然后让这两个服务器在夜间同步这些configuration文件。 这是可能吗? 作为一个用户几乎肯定不会在一天之内在两个地方同步过夜是最好的解决scheme,以确保链接的速度和快速login/注销时间,但我不知道我是否想要实现是合理的-能够。 感谢您的任何提示或指针。 这两台机器都是Win2k3 R2。
我有两个debian服务器,第一个是运行的(主),后者是出于安全目的。 我想让第二台服务器像第一台服务器一样,在第一台服务器出现故障的情况下不断切换到第二台服务器。 我正在考虑每天晚上以这种方式同步它们: 同步包在https://stackoverflow.com/questions/187629/how-do-i-preserve-installed-applications-when-migrating-ubuntu-to-another-platfo rsync的所有/ var / www的东西(不包括caching目录) rsync所有/ etc /目录 在rsync脚本中,我只能在主服务器上激活脚本的IP控制。 我的问题是我应该在这个程序中关心什么: 也许一些/ etc /文件被排除在同步? passwd和shadow? 但我想有一些新的用户从主服务器传播到从服务器 也许其他一些目录是要同步? 任何帮助表示赞赏!