Articles of 文件传输

服务器2008年至2003年缓慢文件传输使用CIFS

我只是试图复制一个文件在CIFS(Windows文件共享)之间的服务器2003 R2和新的服务器2008 SP1,我得到可怕的速度。 这是一个300MB的文件,需要大约30分钟的转移。 我正在1-2Mbit / s左右,这是本地交换机。 我已经尝试从两台服务器启动相同的结果转移。 从2003年复制到另一个2003年不到1分钟,所以显然是2008年的服务器。 一个更奇怪的行为是,如果我同时从2003服务器复制另一个文件到另一台2003服务器,从2008年服务器的传输速率急剧增加(如10倍,但仍然缓慢)。 在RDP驱动器共享我得到完整的VPN速度,约20Mbit。 没有其他服务似乎正在遭受任何延迟。 我已经看到在win2008的TCP卸载导致麻烦的post,它可以相关吗?

如何将FTP传输到FTP?

如何将ftp传输到ftp? 任何直接的FTP软件来做到这一点?

与客户共享大型(多Gb)文件

我不确定这是否是这个问题最好的地方,但是我认为这正是ITpipe理员的领域,所以这就是我把它放在这里的原因。 我们需要与外部客户端共享大文件(几个千兆字节)。 我们需要一种可靠和自动发布这些文件的简单方法,以便客户端可以下载它们。 我们的组织拥有Windows桌面和Windows SBS 2011服务器。 从客户端的angular度来看,从我们的服务器共享可能是不理想的,因为典型的ADSL(约1Mbps)的上行带宽较低 – 客户端需要花费一整天的时间(9小时)来下载文件。 上传到第三方服务器对客户有好处,但对我们来说是痛苦的,因为我们必须处理多个小时的上传。 如果上传到第三方服务器可能会变得更加可靠和自动,例如Groove / SharePoint Workspace,只需将文件放入并等待它同步即可 – 问题不大,但Groove有2Gb限制足够大。 所以理想情况下我想要一个具有以下属性的服务: 必须适用于至less5GB,最好10GB的文件 一旦传输开始,它必须是可靠的(即对断开和服务中断不敏感)并且是完全自动的 理想情况下,发送者在传输完成时会收到通知。 必须使用基于Windows的系统。 有什么build议么?

10Gbps iSCSInetworking仅以2Gbps传输

我的SAN有一个性能问题。 我有一个完整的10Gbps私人networking设置。 我有以下设置 1 – Mac通过光纤收发器10GbE连接 1 – 带有10GbE的Windows 7 PC 1 – 所有端口均为10GbE的HP交换机 2 – 具有10GbE的Quantum StorNext服务器 1 – 带2个控制器的Dell Compellent解决scheme以10GbE连接到networking 所有服务器,交换机和计算机都具有静态分配的IP Compellentconfiguration 第1层 – 10K SAS RAID 10中的驱动器 第2层 – 7200 SAS驱动器(12组,每组13个驱动器) 附加信息 Windows 7客户端TCP卸载选项 IPv4校验和卸载 – 已启用 TCP校验和卸载 – 启用 UDP校验和卸载 – 启用 大量发送卸载 – 启用 巨型数据包 – 启用9014字节 我在Windows 7 PC和Lion工作站上安装了StorNext卷。 […]

Secure FTP / SCP会在传输过程中“中断”现有文件

通常,我通过安全FTP将更新的文件/脚本上传到我的服务器,以便在更改时replace这些文件的现有副本。 但这有直接写入这些文件的讨厌的行为。 这意味着,在file upload时,这些文件/脚本将在这段时间内被加载网站的任何人破坏(由于不完整)。 我怎样才能解决这个问题? 我认为安全的FTP / SSH守护进程将足够聪明,可以在临时位置(如/ tmp)中保持正在进行的下载,直到传输完成,然后将文件快速复制到目标位置。 有没有一种简单的方法来做到这一点? 谢谢!

安全的FTP到Ubuntu上的特定目录?

我可以设置吗? 为某人提供安全的ftp(不是系统中的当前用户) 在Ubuntu上的2个不同的目录 在public_html里面? 我现在不想给用户纯SSH帐户。 任何其他上传,下载,删除文件的安全方式也不错。 nginx可用不是apache2。

在Active Directory中移动文件结构

我最近在我们的域中安装了第二个域控制器。 因为我们旧的文件服务器即将死于老年和灰尘。 所以我急需的是如何将文件结构从旧服务器移动到新的知识。 所有的权利和限制完好无损。 有没有一个简单的方法来做到这一点,不知何故,我觉得复制粘贴不会做到这一点。 谢谢你的反馈和见解

通过networking推出/发布大集文件的最有效方法是什么?

这是我的场景: 我们需要将一组文件(“工作空间”)从源服务器推送到多个目标服务器。 这些文件保存在版本控制(SVN)下,因此第一步是将最新版本的存储库导出到源服务器。 然后,我需要确保在不同的大陆上的几个区域服务器具有该工作区的最新版本。 我有一个使用ROBOCOPY的脚本,但它将整个工作区发送到每个目标服务器。 复制时间非常长,转移可能会阻塞networking到一些不太好的网站…..我已经抱怨了! 在大多数情况下,这些更改只适用于所有文件的一小部分,因此某种差异副本将是理想的。 我不愿意走同步/镜像路由,因为远程服务器上的文件将被经常使用和修改,而区域服务器上的文件很可能被同步工具视为更新。 有什么脚本/工具,你可以build议使发布这个工作区更有效率? 我不介意是否有一个合理的价格可以帮助完成这项工作。 操作系统:Windows Server 2003networking带宽:这是一个私人公司networking,连接速度可以有很大的不同

Apache HTTP服务器 – 如何确定服务器上的下载是否完成以及哪个文件?

我们有一个Apache HTTP服务器正在运行,这个服务器为可能有数百兆字节大小的用户提供dynamic创build的zip压缩文件。 当我们每次点击“下载”button时创build一个新文件(即使内容没有改变…),我们很可能会遇到光盘容量问题。 我有一个相当愚蠢的脚本运行,删除90分钟前创build的所有文件。 显然不是一个解决scheme的好处。 我想知道如何从服务器的命令行下载完成,成功与否。 在这种情况下,我可以删除该文件,因为它不会被提供两次。 考虑一下,甚至可能足以检查服务器是否正在使用文件,因为它是在它被提供给客户端之前创build的。 谢谢!

如何通过HTTP连接发送文件?

我的一位老师说,当你浏览一个web服务器(如apache2)时,它启用了文件/目录列表,然后秘密地打开一个ftp服务器来传输文件。 这让我感到困惑,虽然他在networking方面的确比我知道的更多,因为他不能向我解释,所以我明白了。 如果我没有ftp服务器或端口正在运行,那么它是如何通过该服务发送的? apache2有内置的ftp,我不知道? 如果一个文件被apache2目录列表请求,那么它是通过HTTP还是FTP发送?