我正在使用普通的SMB(Windows共享文件夹)通过不可靠的networking连接传输非常大的文件。 当然,使用Windows资源pipe理器意味着任何时候连接被中断,所有的进程都会丢失,并且任何进程中的文件都被破坏了。 这是否需要这个艰巨的? 是否有相当于一个下载pipe理器,可以主动pipe理数据推送到SMB共享,并可靠地暂停/恢复,如果networking连接动摇?
我试图在Windows服务器上同步Windos机器上的一个目录的内容。 我花了很长时间阅读rsync文档,并提出了以下命令: rsync –progress -avzC –stats –force –dry-run -e 'ssh -p 176' [email protected]:/home/mydirectory 我试图从我想同步的目录中运行这个命令,但命令失败。 是否需要指定我正在同步的目录? 谢谢
我正在运行以下rsync命令 rsync –times -v –recursive –compress –exclude "*.svn" –rsh=/usr/bin/ssh source/folder/ user@ip:httpdocs/ 运行时排除* .svn文件。 我的问题是如何传递一个文件types列表排除。 我们的开发副本中有很多非必要的隐藏文件(IDE项目文件和OSX特定文件) 我需要传递一个5或6个文件扩展名列表来忽略rsync。 谢谢
我的scheme是将几个GB文件从临时服务器分发到数十个相同的目标服务器。 由于rsync可以做增量转移或增量复制,我想知道什么时候rsync文件到第1个dest服务器,rsync可以导出delta转移结果吗? 并使用导入的结果rsync到其余的dest服务器。 在这种情况下,登台服务器可以在重新计算增量转移时节省CPU时间。 这可能吗? Number of files: 160 Number of files transferred: 49 Total file size: 2993222827 bytes = 2854 MB Total transferred file size: 1847285024 bytes =1761 MB Literal data: 69543644 bytes = 66 MB Matched data: 1777741380 bytes = 1695 MB File list size: 3088 File list generation time: 0.001 seconds File […]
我试图从一台机器传输一个大的(1GB +)文件到另一台机器,但是我必须通过一个介于两者之间的网关 。 我能够传输小文件就好了。 但是,随着大档案,转移中途停止。 在阅读了关于停止scp转移的博客文章之后,我尝试使用-l 8192 ,甚至尝试将其降低到-l 2000 ,但这似乎使得它更快地停止: scp -l 2000 -v -P 2222 username@localhost:/path/to/file.gz . 从scp命令的详细输出( -v ),它看起来像-l没有被传递… debug1: Sending command: scp -v -f — /path/to/file.gz 任何其他的想法?
在我们的研究所,我们很快就需要经常分享大量的数据(数TB)。 使用BitTorrent执行此任务是否合理? 与普通的FTP服务器相比,CPU /内存开销有多大? 当从一个BitTorrent对等体(原始存储服务器)复制到另一个对等体时,是否有可能实现与直接FTP传输匹配的速度? 非常感谢你。
免责声明:我是一名程序员,而不是pipe理员! 我正在一个新的服务器集群中设置Web应用程序,并且使用xcopy或robocopy以及同一子网上的服务器之间的UNCpath复制文件非常慢。 有时似乎偶尔加速,其他时间需要2秒钟复制5K文件。 在我们旧的环境中,这闪电般快。 唯一的区别是我知道的是Win2K3,这是Win2K8。 操作系统可能与它有任何关系,或者这更可能是一个奇怪的networking问题,造成这一点?
对于共享相同文件系统的容器,这是一件容易的事情,但我不确定使用LVM磁盘的容器的正确方法是什么。 我知道我可以使用rsync或scp但是我想知道是否可以在不设置ssh / ftp / http服务器的情况下执行此操作。 另外,能够在不修改容器的configuration的情况下传输文件将是很好的,因为这将需要容器重启。 避免持久安装共享文件夹是一个好主意,因为这可能会带来潜在的安全风险(应该提供简单的安装/卸载选项)。 在我脑海里popup的一个选项是在主机上使用WebDAV服务器并将其安装在容器中,但我还没有分析它,我不确定它可能带来的性能损失。 其他选项,我虽然是在主机上安装LVM分区,但我不知道这是否安全。 更新 在我的configuration中,我使用以下命令创build容器: lxc-create -t ubuntu -n "${NAME}" -B lvm –vgname lxc-vg –fssize "${SIZE}" 我使用的默认configuration除了通过在/var/lib/lxc/${NAME}/config文件中添加以下行来实现自动启动function: lxc.start.auto = 1 lxc.start.delay = 0
如何将文件从互联网上的某个位置下载到在运行级别3(不含GUI)上运行的RHEL5服务器? 像,我们可以使用sftp直接从网站上下载文件吗? 或者,我们是否有从https://sitename.com/location这样的地址下载文件到RHEL5服务器的命令?
目前我们正在使用Aspera的企业产品。 我们获得的许可证仅包含每个连接的吞吐量10兆比特。 我们正在考虑从Aspera迁移,因为他们的许可成本是一个杀手,让我们高达100megits。 我一直在环顾四周,真的找不到任何替代品。 现在我们每天都有500GB的东西进出。 我更喜欢FOSS阵营的东西,但我并不反对购买基于Windows的东西。 为您提供一些我们的硬件configuration背景。 (2)BL495c刀片服务器 – 2个6核心Opteron,128GB内存,存储全部位于HP MSA2300 FCarrays上,共约10TB数据。 一切正在Hyper-V Server 2008r2上运行。 所有这一切都有一个真正的问题: 您使用什么软件/方法为您的客户提供高速file upload/下载? 编辑:我正在处理大多数非技术性的最终用户谁都生活在Windows世界。 所以我想用一个相当简单的用户前端浏览器的东西。 后端可以是必要的技术。 我认为唯一真正的要求是大约100Mbps的文件传输,用户配额和可能的连接限制的性能。