我们有一个Windows 2008服务器,它承载networking共享\\ srvcompany \ lib。 该份额包含日常业务所需的几个应用程序。 每个客户端/用户(所有赢得XP)在桌面上有这些应用程序的快捷方式。 我们遇到的问题是,在几个(但不是全部)客户端,应用程序启动非常缓慢。 如果我将应用程序的程序文件复制到本地文件夹,那么他们将快速启动。 在应用程序启动时,当我在任务pipe理器中观察这种“慢”机器上的内存使用情况时,我发现内存使用量比从“快速”机器启动应用程序时增长得慢得多。 但是,当我从这个共享与Windows资源pipe理器复制文件,速度几乎相同。 我也检查过networking驱动程序,两个testing过的客户端都有相同的驱动程序版本相同的网卡。 有没有人有一个想法,我应该检查下一步解决这个问题? 感谢您的回答。
我pipe理大约10台服务器,每台服务器每晚备份相对较less的一组数据。 陈旧的备份被删除,我们只需要大约40GB的存储空间。 我们的托pipe服务提供商(Softlayer)提供了一些networking存储选项, 40GB NAS – $ 20 /月 40GB iSCSI SAN – $ 30 /月 40GB Evault – $ 40 /月 云存储 – $ 0.25 / gb存储+ $ 0.10 / gb带宽 每个选项之间有什么区别? 对于速度无关紧要,但可靠性和易用性的数据备份来说,哪一个最适合?
我有一个64MB / s的networking连接,它应该在17个LAN中优先分配。 任何一个局域网内的计算机都应该有一定的带宽份额(例如,局域网1的计算机的带宽是局域网2计算机的一半),但是在整个互联网负载变化时,这个份额应该会有所不同。 所以分配的带宽不应该静态给定,必须根据负载来改变。 我尝试了Squid和iproute。 但据我所知,他们都不能dynamic分配带宽。 他们只能给一个IP一个静态的带宽(比如64kbps) 更新: 作为Crankyadmin,卡森和大卫布利斯说,有三种方法可以做到这一点: pfSense 的shorewall 使用Linux(OpenBSD?)内核(也可以在Ubuntu上运行?) 正如我发现的,所有这些都是解决这个问题的方法。 但我不知道是否适合高负荷,可以pipe理数百台电脑。 我使用FreeBSD作为代理服务器,所以最好有一个可以在FreeBSD上运行的解决scheme。 所以我需要一个兼容FreeBSD的解决scheme来处理高负载。 它应该是高效和快速的),不会浪费互联网带宽。
目前用于IPv6负载平衡的Linux软件环境看起来有点严峻。 IPVS对IPv6有基本的支持,但还远远没有完成。 IPv6的NAT似乎是不可行的。 还有其他项目是为了这个目标吗? 其他操作系统的IPv6支持是否更好? 是否有任何商业产品已经成功应用于生产环境,具有不平凡的负载模式? 还是只是IPv6的时代还没有到来呢? ;) 最好的问候,迈克尔
我们在我们的内部networking中有一个代理服务器,我想把所有的Internet http请求redirect到本地networking中的一个Web服务器。 这就像一个networking广告牌,说:“没有直接连接可用,设置您的代理等。 例如: 用户启动计算机 打开浏览器 尝试打开www.google.com 应该在本地networking上看到Web服务器输出 在互联网上尝试另一个网站 应该在本地networking上看到Web服务器输出 设置代理 试图连接到一个网站 网站应该加载 我已经在Checkpoint防火墙中添加了一个简单的手动NAT规则来解决翻译问题,但它根本不起作用。 这是我的地址转换规则 Source Destination Service T.Source T.Destination T.Service MY_PC A_GOOGLE_IP ALL ORIGINAL INT_WEB_SRV ORIGINAL 然后,当我ping A_GOOGLE_IP ,答复来自INT_WEB_SRV ,正如我所料。 但是,当我尝试从浏览器( http:// A_GOOGLE_IP )连接A_GOOGLE_IP ,SYN_SENT没有响应,并进入超时。 当我查看INT_WEB_SRV的防火墙日志时,可以看到来自MY_PC的传入连接请求被接受,并且NO拒绝。 顺便说一下,从浏览器查看INT_WEB_SRV ( http:// INT_WEB_SRV )是没有问题的。 我的理解是,我的NAT规则在检查点NGX R60不包括返回数据包。 我绝对需要一些帮助。
我最近问的是关于分割文件服务器的选项,因为我们的NAS解决scheme在我们的用户(特别是巨型configuration文件)几乎同时login时会相当困难。 我碰到了Gluster,看起来它可以将不同的物理存储介质集群到一个虚拟卷中,并从客户端angular度将其像虚拟NAS一样共享,并支持CIFS。 我的问题是,像这样的东西是可行的,用于在活动目录环境中的家庭和个人资料目录。 我担心ACL,主要是因为我不认为CIFS足够支持NTFS权限,它看起来不像Gluster导出这些权限级别,只是基本文件共享的基本权限。 我觉得使用Gluster可以让数据在多台服务器上是冗余的,并且可以加速重负载下文件的访问,同时允许我们通过添加另一台服务器来dynamic提高存储容量,并告诉Gluster的主节点添加服务器。 也许我对我的理解错了。 任何人使用它或关心分享这是多么可行?
我在这里阅读有关MRJ-41配线架系统,但不知道我完全理解它。 看起来它允许我连接我自己的配线架,因为它使用特殊的电缆将配线架连接在一起(所以我不需要电工)。 但是,看起来每个48端口面板都需要这8根电缆。 因此,要连接一个机架到另一个机架,我需要2个配线架(每个CDW $ 330),然后是8个电缆( CDW $ 240),每个补丁总共大约2500美元。 我是否正确理解目的和实施?
我正在devise一个客户端连接和保持连接的networking服务 – 模型离IRC不远,而不是s2s连接。 我可以使用一些帮助来理解如何进行容量规划,尤其是与处理来自/到客户端的消息相关的系统资源成本。 有一篇文章试图让100万个客户端连接到同一台服务器上[1]。 当然,这些客户大部分在testing中都是完全闲置的。 如果客户每隔5秒钟发出一个消息,系统肯定会被甩掉。 但是…你怎么less挥手,你知道, 衡量这样一个突破点? 我们正在讨论客户端通过TCP套接字发送的消息到内核中,并由应用程序读取。 数据在内存中从一个缓冲区移到另一个缓冲区。 我需要考虑内存吞吐量(“5 GT / s”[2]等)? 我非常肯定,我有能力测量由于TCP / IP缓冲区,预期带宽和处理消息所需的CPU资源而导致的基本内存需求。 对于我所说的“吞吞吐吐”,我有点朦胧。 帮帮我! 另外,有没有人真的这样做? 或者,大多数人都会用手摇来看看现实世界提供什么,然后做出适当的反应? [1] http://www.metabrew.com/article/a-million-user-comet-application-with-mochiweb-part-3/ [2] http://en.wikipedia.org/wiki/GT/s
我正在阅读去年的一些关于数据中心networkingdevise的论文。 http://ccr.sigcomm.org/online/?q=node/523 大部分发表的论文都抱怨数据中心networkingdevise的树状结构。 例如:如果一个networking级别正在接收networking洪泛,则下面这个级别的每个服务器也受到这个洪水的影响。 还有一个问题:由于使用了不同层次的高成本networking硬件,networking资源被分配到了不同的层次。 在数据中心networking中使用基于树的层次结构还有什么其他的缺点? 谢谢。
我想知道是否有人看到并修复了这个问题: 我们有许多基于Windows 2003 SP2的DC,通常都能正常工作。 但是,有时在重新启动后,他们无法正确初始化他们的networking连接 – 卡已启用,似乎正常工作,但stream量不通过卡。 他们的LAN和iSCSI接口都是这种情况。 随后的热重启解决了这个问题(例如,他们启动正常,工作正常)。 冷重启似乎不会导致问题。 我们已经在服务器平台(不同型号的Dell PowerEdge)和不同的网卡(broadcom和基于Intel的NIC)方面看到了这个问题。 当然,我们尝试过所有我们尝试过的网卡的不同版本的驱动程序。 服务器上没有运行任何窗口或第三方防火墙。