我目前正在构build一个小型的CDN拓扑系统,而且我正在寻找在所有服务器中的某个文件夹中同步文件的最佳方式。 我需要能够上传一个文件到一个单一的 FTP,并得到它复制到所有其他服务器。 需要同步的文件夹的大小大约是50GB,我需要在同步5分钟的差异。 所有服务器上的O / S都是Windows 2008 R2。 有任何想法吗 ?
我正在运行一个MS窗口,使用Netbeans 7.我偶尔会遇到一个问题,当我保存,“这个文件是外部修改,你确定要覆盖” 进一步的调查让我相信问题在于NAS和我的电脑之间的时间不同步。 我们networking上的所有电脑都与time.windows.com同步 任何人都可以告诉我如何与time.windows.com同步Linux的盒子,如果这是可能的? 或者可以有人提出一种替代方法来同步时间? 我有5个Windows PC和一个Mac。 Netbeans是唯一一个引发这个错误的程序,我想是因为它编码的方式是检查最后一次保存的时间是否与文件的最后修改date相对应,这是因为NAS设置为比其余的PC持续2分钟变得困惑。 如果这有什么不同,NAS通过SAMBA安装。 ——————- 编辑 —————— BusyBox v1.16.1 (2011-04-08 10:13:58 CST) built-in shell (ash) Enter 'help' for a list of built-in commands. blackbird> uname -a Linux blackbird 2.6.32.12 #1613 SMP Fri Apr 8 10:10:14 CST 2011 x86_64 GNU/Linux synology_x86_1511+ blackbird>
我正在使用Kickstart设置一个CentOS 5.6服务器。 我有四个磁盘驱动器,sda-sdd。 这些是相关的Kickstart系列: clearpart –linux –drives=sda,sdb,sdc,sdd –initlabel part raid.11 –size 102400 –asprimary –ondrive=sda part raid.21 –size 16384 –asprimary –ondrive=sda part raid.31 –size 1024 –asprimary –grow –ondrive=sda part raid.12 –size 102400 –asprimary –ondrive=sdb part raid.22 –size 16384 –asprimary –ondrive=sdb part raid.32 –size 1024 –asprimary –grow –ondrive=sdb part raid.41 –size 1024 –asprimary –grow –ondrive=sdc part raid.42 […]
我和一个朋友有两台服务器(linux / gentoo) – 都有ADSL连接(16Mbit / s的下载 – 512Kb / s的上传),他们位于几百公里之外。 由于我们的上传带宽对于当今的需求来说太窄了,所以我们决定同步和负载均衡是一个好主意。 我们正在提供MediaWiki和Wordpress,使用mysql副本复制数据库,lsync(基于git)同步文件,我们的DNS服务器parsing到两个IP地址。 它已经运行了几天,我们刚刚开始遇到同步问题 – 应该在他的服务器中的文件,而不是从我的服务器上删除的文件没有明显的原因; 我们考虑了DRDB,即在较低级别同步文件(DRDB不同步目录中的文件更改;我们必须在两边都有一个新的分区,DRDB将同步它们的块 – 这看起来更稳定)。 但是我们的理解是,DRDB似乎没有可扩展性 – 而且这是必须的,因为我们计划在将来有更多的服务器。 我的问题是: 1)是否有可能使lsync无缝工作,或只是它的方式? 2)是否有任何方法使DRDB可扩展? (即使这是一个解决方法) 3)您认为最适合我的情况是什么?
我正在寻找一个应用程序,我可以把我的本地服务器,将从C:\源文件到远程FTP服务器上的文件夹每小时。 我在看rsync,它看起来很完美,直到它告诉我,我不能使用我自己的FTP服务器。 任何build议? 我将有大约5万个小文件。 没有超过20kb,在源文件夹中,所以ftp越快越好。 Allway Sync也太慢了。
我们的场景是一个本地Linux MySQL服务器,我们可以根据需要做任何事情,包括安装东西,设置cronjobs,以及一个只能通过PHP访问的远程服务器。 远程的一个是通常的LAMP托pipe服务,所以我们可以上传我们想要的任何PHP,但是只有本地主机上的php脚本能够连接到MySQL,我们不能直接从外部连接到数据库。 有FTP上传和pipe理PHP文件。 本地服务器运行一些商业软件,我们编写脚本从该软件获取一些数据。 我们需要将这些数据加载到MySQL托pipe的网站上的某些专用表中。 出于testing目的,我们导出本地数据库(使用本地phpMyAdmin),并将其导入远程系统(使用远程phpMyAdmin),当然它工作正常。 现在我们需要自动化这个。 我们的“同步”实际上是完全擦除远端,然后我们重新导入本地数据库的所有内容。 这是每晚都会发生的。 第一个想法是通过mysqldump导出的本地cron作业,通过FTP上传,wget是一个远程php文件的URL(在某些凭据检查之后)最终运行上传的SQL。 一些盲目的,愚蠢的脚本…应该工作,只要我保持在SQL上传/ SQL导入区域以外的陌生人。 而不是重新发明轮子,是否可以达到相同的结果,也许以我没有想到的更智能的方式? 谢谢。
情景:我有一个主服务器用于页面构build/存储主数据,并且可以由现场的几个客户端访问。 这家公司还拥有多个分支机构,拥有自己的服务器,可以在本地连接,但需要处理所有相同的数据,并在所有服务器上实时(或closures)同步。 是否有一种方法/特定的服务器操作系统,可以跨所有这些服务器同步实时数据? 这些服务器还需要能够: configurationAFP,FTP,CIFS,SMB 继续在Microsoft环境中托pipe其Web服务器和数据库服务器,但将文件服务器移到商品硬件 只是想知道如果这是可能的。
我需要一个消息传递服务来成为我的客户和我的服务器之间的一个代理,它满足了这个要求: 与客户同步工作 发送他们的请求,并从服务器asynchronous获得他们的答案(就像发送请求作为消息,并给出答案作为另一个消息)。 所以它应该记住请求ID来知道把答案发送给哪个客户端。 在服务器之间进行负载平衡,同时向它们发送请求, 有什么软件/硬件吗? 我更喜欢开源软件。
我目前正在寻找一个可靠和强大的解决scheme,使两个mac os x服务器(最近的版本)之间的文件双向同步。 该文件夹是大约75 GB的企业架构。 我已经考虑过使用一些来自Linux的脚本,比如unison或者rsync,但是它们听起来不太可靠。 我目前的解决scheme是一致的。 以前有没有在企业环境中使用过这样的系统? 你知道一些解决scheme,值得评估这种用法? 我应该使用分布式文件系统吗? 这是我们系统的要求: 同步需要两种方式 同步需要尽可能实时 如果同步只传输需要的数据(低通道隧道)来节省带宽,那将是非常好的 提前致谢 !
我是新来的统一,并试图在一个简单的shell脚本中使用它的选项,但是当脚本执行时它们似乎被忽略,导致两个服务器之间没有更改同步。 我的shell脚本: #!/bin/bash # set paths / dirs _paths="/var/www/html/ \ " # binary file name _unison=/usr/bin/unison # Log in to remote server without a password source $HOME/.keychain/$HOSTNAME-sh # server names # sync node1.example.com with rest of the servers in cluster _rserver="node2.example.com" # sync it for r in ${_rserver} do for p in ${_paths} do ${_unison} […]