我有一个50兆的家庭连接和1Gb的连接,但在家庭和工作服务器之间传输文件非常慢,大约300KB / s,使用HTTP FTP或RD。 我应该怎么做才能提高传输速度? 编辑:我的家庭连接是50/10,但是,我现在更关心下载。 我说的速度只是使用这些方法的单个文件。 我最担心的是,客户端也会从服务器上获得这些types的速度,所以我可能会在错误的地方看问题。 编辑#2:在听取了这里很多人的意见后,我用iperf进行了testing,它报告了3.03 MB / s的传输和2.50Mbps的带宽(我不确定这是什么意思,因为我不知道如何传输高于带宽)。 但是,假设我可以以3MB / s的速度传输什么程序/协议将利用最好的?
由于传输或复制正在使用的文件有时会导致传输文件损坏,我们能否定义一个时间间隔,Rsync将检查给定目录中的每个文件,以查看该时间间隔内是否有更改? 在这段时间内没有改变的文件将被传送,而那些有改变的文件则不会被传送。 我可以用rsync做到这一点吗? 还是另一个工具? 有没有一个脚本来将此function添加到Rsync? 谢谢
在我的局域网中,我有一台运行Samba服务器的路由器,我的电脑连接到路由器。 我在上传到服务器和从服务器上下载的过程中发出了疑问。 wireshar结果显示: 在上传过程中,服务器每隔0.6ms发送一个ACK 在下载过程中,我的电脑每隔0.025ms发送一个ACK 结果,下载产生大约120000帧,而上传仅产生70000帧。 下载速率约为12.7Mbytes / s,上传速度为20Mbyte / s。 所以我想弄清楚这个可能的原因。
我们正在testing通过terminal服务器上的客户端会话启动的文件传输脚本 – 客户端是Ubuntu rdesktop。 我们发现,即使文件传输仍在运行,会话在一段时间后仍会断开连接。 这是terminal服务器的超时设置,或者可能是另一个问题。 请注意,我们可能没有任何“客户端活动”,只有文件传输正在运行。 这是一个简单的文件复制到本地安装的驱动器。
我有服务器A工作的一部分工作,并生成一个文件作为输出。 服务器B在作业的第二部分工作,但需要服务A生成的文件。 从服务器A到服务器B的最佳方式是什么? 这将会发生很多次,并且可能同时发生多次转账。 (这些文件几乎总是<50KB,但可以是15MB大) 我知道我可以使用rsync或scp,但是我担心这些转换经常发生的效率。 这是一个有效的担心? 我也研究了NFS的选项,但是我需要能够轻松地指定不同的服务器,而且每次需要定义一个新的服务器时,挂载一个新的nfs似乎并不明智。 这并不漂亮,但现在我所做的只是将文件通过http传递给脚本,将脚本写入文件系统。 这个想法是把它改写成一个简单的客户机/服务器,并将其切断。 但是我认为必须有一个现有的工具来做类似的事情。
情景:我有大约一百多个压缩为.gz的文本文件。 他们需要被转移到远程服务器。 我不想用scp。 两者都是linux服务器。 我的要求/我的想法:我想在源服务器上编写并执行一个bash脚本。 我想要的是像zcat每个文件,pipe道输出通过SSH用户@远程(其已configuration的无密码),然后将这些输出redirect到远程服务器上的文本文件。 这是正确的吗? 如果是的话如何实现呢? 谢谢,
我试图rsync一个文件到我的EC2实例: rsync -Paz –rsh "ssh -i ~/.ssh/myfile.pem" –rsync-path "sudo rsync" file.pdf [email protected]:/home/ubuntu/ 这给出了以下错误消息: Warning: Identity file ~/.ssh/myfile.pem not accessible: No such file or directory. [email protected]'s password: pem文件绝对位于path~/.ssh/myfile.pem ,但是: vi ~/.ssh/myfile.pem显示了我的文件。 如果我从rsync命令的最后删除远程path: rsync -Paz –rsh "ssh -i ~/.ssh/myfile.pem" –rsync-path "sudo rsync" file.pdf [email protected] 然后命令似乎工作… building file list … 1 file to consider file.pdf 41985 100% 8.79MB/s […]
如何从通过SFTP连接的远程服务器确定哪个文件是最新的? 我的目标是通过SFTP每天检索一个特定的文件。 我将遵循的步骤是: 通过SFTP连接到服务器 检索我需要的文件的名称< – 需要此步骤的帮助 下载它 我可以弄清楚如何通过脚本连接通过SFTP,但我不知道最好的方式去确定哪个文件下载。 例如,服务器上有许多文件名称如下所示: ABC-Alpha-Sun-May-12-abc123.xml.gz ABC-Beta-Sun-May-12-abc123.xml.gz 我只想检索当天的Alpha文件。 我假设我会检查“May-12”的名称,以知道这是否是今天的文件? 或者,也许我应该检查文件创builddate或修改date? 我将如何检索文件名? 也许我检索所有的文件的名称,然后sorting吗? 你会推荐什么作为实现我的目标的最佳方式?
这是我的问题的延伸( 小型办公室备份,小型NAS(RAID)与单一磁盘 )。 构buildNAS备份解决scheme以防止个人和/或恶意软件故意腐败,这将是一个好方法。 假设我有一个有5-10台电脑的小办公室。 当然,我可以让每台电脑安装NAS,每个用户都可以备份文件夹,例如 \\SHARE\User1\backups\daily \\SHARE\User1\backups\weekly \\SHARE\User1\backups\monthly \\SHARE\User1\backups\yearly \\SHARE\User2\backups\daily \\SHARE\User2\backups\weekly \\SHARE\User2\backups\monthly \\SHARE\User2\backups\yearly . . 我可以使用在每台PC上以预定间隔运行的脚本,并适当地复制文件。 这个问题是因为用户可以挂载他们的NAS(或者以他们的用户身份运行的恶意软件)可能会为该用户造成所有的备份。 我能想到的唯一解决这个困境的方法是: find一个NAS可以通过SSH(安装sshd)轮询PC并scp文件。 我不知道一个NAS可以做到这一点。 我一直在看QNAP Turbo NAS。 让服务器通过SSH轮询PC并复制到NAS(因为只有它可以挂载NAS)。 这似乎是一个个人电脑的浪费和不足。 只有用户能够访问和\或挂载“每日”文件夹,并让NAS自己以预定的时间间隔每周\每月\每年复制(NAS可以做到这一点)? 我从来没听说过一些疯狂的软件解决scheme 一些运行备份协议的NAS我从来没有听说过?
在同一networking中的两台Linux服务器之间传输文件时遇到问题。 在源服务器上,我有40055个小文件的目录,目录大小是34 GB。 我试图用rsync命令传输这些文件: rsync -ah –progress –inplace /dir/dir_with_files user@server:/dir/destination_dir 传输后,在目标服务器上我有一个大小为108 GB而不是34 GB的目录 分区上的块是相同的。 我用scp做了同样的事情,但问题是一样的。