我一直在使用Filezilla工作一段时间,没有任何重大的问题,除了这一个。 条件: 有些问题会导致文件下载失败,因为我将Filezilla设置为在没有提示的情况下自动覆盖文件,这会将程序发送到尝试下载文件的无限循环。 然后我必须取消队列; 这导致文件的本地拷贝被清空。 它只出现在大小为7-8 KB的文件中。 小于7000字节的文件(我认为)从来没有受到这个错误的影响,文件8000字节或以上的传输也很好。 这只发生在下载,而不是上传。 它似乎只发生在Filezilla,已经尝试了其他一些FTP解决scheme,并没有得到相同的结果。 它发生在批量,recursion和单一下载。 我的同事一直有同样的问题,所以我不认为这是我的电脑的问题,但我不知道这是一个罕见的Filezilla错误或在我们的服务器上的一些设置的问题。 如果任何人有类似的经验或解决scheme,我将非常感激收到你的来信。 遇到问题时编辑包含日志: Status: Starting download of …/file-name.php Command: PASV Response: 227 Entering Passive Mode (xxx,xxx,xx,xxx,xxx,xx) Command: RETR file-name.php Response: 150-Accepted data connection Response: 150 7.6 kbytes to download Error: GnuTLS error -110: The TLS connection was non-properly terminated. Status: Server did not properly […]
我需要将一个非常大的数据库(〜320 GB)从server1移动到server2 (Linux)。 由于扩展版本不同,数据库只能从dump文件在server2上恢复,如此处所述。 问题是我没有足够的空间在server1上先写一个转储文件,然后将其复制到server2并validation总和。 我需要一个可靠的方法直接写入到server2的数据,最大限度地减less腐败的风险。 我试过了: 使用nc从server1到server2的转储。 使用sshfs将转储文件直接写入server1上安装的server2文件系统。 这两个转储文件似乎已经损坏(大小不一,并在导入的不同阶段与腐败有关的错误)。 我像这样迁移数据库(但小得多)没有问题。 任何人都可以提出一个更好,更可靠的方法来做这个大转移? 更新:尝试与相同的结果的NFS。 很明显,远程文件系统不能处理这个数据量。 从结果SQL文件中可以明显地看到块,导致导入过程中出现语法错误。 每次尝试时,文件的不同部分都会被破坏。
我有一个租用的VPS wieh debian安装。 最近我已经安装了proftpd,以允许只读访问每个人和完全访问特定用户。 我根据几个指南configuration了proftpd(使用TLS)。 我已经解锁被动端口(通过iptables的端口和21端口),并设置匿名login。 当我login时,一切正常 – 快速login,快速通过目录…当我尝试下载文件时发生问题 – winscp / filezilla / python,所有卡住下载文件,然后松散连接(文件是〜 1kB,非常小)。 当我通过SFTP连接到服务器时,我没有问题和全速。 有任何想法吗? 你需要我的proftpd.conf文件吗? 更新: 我看到我需要添加一些信息,这要感谢第一个评论(关于SCP): 我希望能够匿名查看文件,最好是通过networking浏览器,但它不是必须的。 我需要设置一个应用程序,从VPS与我的硬盘上的文件夹同步整个文件夹(我打算通过python来做到这一点,但shell / bash也不错) 我希望能够下载/上传整个目录或只有那些已经改变的文件 我需要这个没有第三方程序是可行的。 通过cmdline / bash或官方的python库。 需要在Windows和Fedora上工作 我的iptablesconfiguration: Chain INPUT (policy ACCEPT) target prot opt source destination fail2ban-ssh-ddos tcp — anywhere anywhere multiport dports ssh ACCEPT tcp — anywhere anywhere tcp […]
我正在embedded式系统上创build一个服务器。 我有一个SD卡上的FAT文件系统,其中包含一个文件,该文件应该通过HTTP连接到系统的WiFi发送到某个客户端 。 起初,我试图逐字节读取文件,这是非常缓慢的。 为了改善文件阅读,我介绍了一个缓冲区。 我从文件读取到缓冲区,然后将缓冲区内容写入发送到客户端的stream: file -> buffer -> network 增加缓冲区大小会增加数据传输速率。 我认为这是因为对文件系统的读操作数量减less了。 但是,任意大的缓冲区(比如说5000字节)会适得其反。 我怀疑这是由于bufferbloat。 服务器花费太多的时间填充缓冲区,这使networking混乱。 显然,有一些最佳的缓冲区大小,读取速度增加,而不会由于缓冲区膨胀而导致放缓。 我想提高数据传输率方面的总体performance。 目前我得到3Mbi / s太慢了。 我在控制缓冲区大小和集群大小。 我可以通过为这两个值做出正确的select来改善系统的性能吗? 缓冲区大小和簇大小是否理想相同? 一般来说,缓冲区大小应该是簇大小的整数倍(可能> 1)? 我是否应该以某种方式select这两者,以便与networking有效负载大小保持一致? (我对networking没有多less经验,也不知道是否有固定的有效载荷大小这样的事情) 如何决定这些尺寸以提高数据传输率?
我使用SFTP通过一个相当快速的连接,运行Ubuntu Linux的两台服务器之间传输了一堆GB级的文件,CPU负载不多。 我通常能够达到5.0 MB的传输速度(约40兆位/秒),尽pipe我们有90兆的带宽可用,而且似乎并不想要更高。 运行在5.0 MB: 源机器对ssh的CPU负载不超过2.7% 目标机器的CPU负载不超过sshd的13.3%和sftp-server的3.0% 我无法让它走得更快。 如果我打开第二个SFTP会话,两个总共不超过5.0 MB。 现在是真正的问题。 有时候,SFTP将会以无法理解的速度慢慢转移。 两台机器都不忙,互联网连接是空的,但传输速度大约为120 KB / s。 中断SFTP,重新连接。 还有120左右的KB /秒 中断SFTP,重新连接。 还有120左右的KB /秒 中断SFTP,重新连接。 还有120左右的KB /秒 中断SFTP,重新连接。 这次它开始慢,但回到5.0 MB /秒 到底他妈发生了什么? 我知道有一些机制来防止SFTP重载一个很慢的SSH连接,但是这个机制似乎被破坏和不可靠。
好日子的朋友,我有一个从Windows服务器(集成活动目录)到Linux服务器的数据(文件和文件夹)传输的问题。 活动目录在用户级别和组级别提供权限,并且要求当他们到达linux服务器时,权限仍然存在,因为他们将继续被windows机器访问。 数据传输没有问题(rsync)。 问题出现在文件和文件夹的权限。 从linux执行的命令是: mount -t cifs //192.168.36.115/compartido1 /mnt -o username=administrator,work`enter code here`group=testlab rsync -aArz /mnt/wcordero/* /gpfs/gpfscl1/compras/ //192.168.36.115/compartido1 =旧的NAS Windows / mnt / wcordero / * =传输path / gpfs / gpfscl1 / compras / wcordero =最终path 到左边的窗口。 到右边的linux 我已经尝试使用rsync -p,-A的选项,结果是一样的。 我感谢你的合作 ps:我已经在windows cmd中使用了robocopy,它满足了需求,但性能不是最佳的(由于数据量),我想从Linux做到这一点。
这是一个奇怪的。 我有2个远程networking,我通过互联网传输文件。 昨天,一个正常的备份工作失败了,所以我开始研究它。 我一直在这两个networking之间传输文件没有几个月的问题。 后来几个小时的debugging,我已经到了这个图: 基本上,我不能从networkingA传输任何大型文件(> 50MB-ish)到networkingB上两台路由器之后的任何设备。无论是从networkingA还是从networkingB发起传输都无关紧要。并开始传输,然后几秒钟后(似乎从5-60秒)传输失败。 我可以从networkingA转移到其他networking,没有问题。 我甚至可以将networkingB上的设备转移到仅位于NAT路由器1后面的设备上。 小文件工作正常(大部分时间)。 较大的文件开始正常,然后失败。 错误和日志 当我从networkingB(从A发送文件到B)发起rsync传输时。 …several more identical lines (depends on how soon it fails)… debug2: channel 0: window 1966080 sent adjust 131072 debug2: channel 0: window 1966080 sent adjust 131072 debug2: channel 0: window 1966080 sent adjust 131072 ssh_dispatch_run_fatal: Connection to XXX.XXX.XXX.XXX port 22: message authentication […]
我正在寻求一个解决scheme的意见,将各种脚本传输到远程系统。 某种客户端/服务器应用程序? 这是情况。 我有32台移动的Windows机器,遍布美国各地。 IP地址不断变化,这些系统都不在一个工作组上。 由于这些系统的dynamic特性,我已经用Python脚本自动化了一些东西。 手动传输并将新脚本上传到每台计算机是非常繁琐的。 我正在寻找一种方法将这些Python脚本推送到每台机器上。 我拥有的一个优点是每台计算机都可以访问的RHEL 5盒。 请记住,这些系统都在专用局域网上,没有广域网接入。 如何将多个脚本推送到客户端系统? 到目前为止,最好的解决scheme已经在Windows的盒子上了。 一小时后,Python脚本就会熄灭并检查是否有更新。 如果它通过wget从RHEL框find并更新它下载到Windows客户端。
我很想知道是否有任何工具可以通过多播来恢复磁盘映像(甚至是传输文件) – 对于任何平台,尤其是如果项目具有可用源码的情况,多播速率可以自动调整。 在Mac上,所有我知道的组播解决scheme(比如Deploy Studio和NetRestore)都使用组播ASR(苹果软件恢复),这个组织有一个明显的缺陷 – 你必须在开始之前设置组播速度通过networking发送一个磁盘映像,并且速度被locking。你的客户可以保持和恢复,或者他们不能*。 在我看来,组播服务器必须能够调整数据速率,所以你基本上说“开始发送这个图像”,客户端连接,如果他们跟不上,他们告诉服务器,下。 (同样,如果没有客户端遇到困难,我希望服务器加快速度,我希望能够限制最大吞吐量,以便其他networking活动可以继续进行,而不会造成资源匮乏。) 那么,那里有什么样的工具? 对于Linux? 视窗? 有没有为我忽视的Mac的东西。 [这真是让我很害怕,当你组播起来,并以一个很快的速度恢复一个实验室,你可以把这些数据分发给所有的计算机并完成。] ***有一点余地涉及。 我认为个人客户可以说:“我错过了一点点数据”,然后他们可以select在下一次通过networking发送图片时进行收听,但总体来说,如果他们错过了第一个你必须再次把机器形象化,没有时间节约。
我有一个RedHat服务器,运行tomcat和videostream应用程序(Adobe FMS)。 我有几十个用户希望能够上传他们的video到这个服务器。 但我不想让他们访问,即使我做了其中的一些技术不足以使用像WinSCP这样的客户端。 我正在寻找一个基于networking的file upload,这将允许我的用户上传他们的video文件到服务器。 用户能够创build新的目录是一个绝对的要求。 理想情况下,我将能够使用我们的LDAP进行身份validation,但是我想我可以使用Apache htaccess规则来保护上传者。