Articles of networkingdevise

一个棘手的融合VoIPdevise

一个客户(大约30人)想要用VoIP来replace他们现有的模拟电话系统。 然而: 他们有两个以太网下降到一些书桌,但不是全部 他们(最近购买的)路由器不支持802.1Q VLAN 他们(最近购买的)核心交换机只是第二层 有没有可行的,合理的解决scheme可以让他们: 避免更换路由器或交换机 避免运行新的以太网丢弃 谢谢!

生产服务器应该允许访问数据库服务器吗?

我们公司目前拥有一个面向客户的集群,用于我们的注册和客户账户pipe理,可直接访问实时数据库(一个主数据库和多个只读从属数据库)。 最近我们已经讨论过一些关于提高安全性(超越现有防火墙)的安全性。 这个想法(来自pipe理层)是生产服务器不应直接访问数据库的读取或写入,而应该从数据库服务器或连接到生产服务器的其他内部服务器运行,在那里存在一些临时队列。 所以 目前: 应用程序将新注册写入数据库应用程序从数据库读取有关客户的数据 (App -> DB) build议: 应用程序将新注册写入临时本地caching(可能是文件系统,临时数据库,memcached等)内部networking的Cron /守护程序连接OUT到应用程序服务器并获取排队的数据库请求Cron /守护进程将新数据写入数据库或从数据库读取旧数据按照要求 Cron /守护进程将结果推回给应用程序服务器 (App <- Daemon -> DB) 作为一个开发人员(不是系统pipe理员),这对我来说似乎很可笑,但我却承认不是安全专家。 作为替代,我提出如果我们不能直接访问数据库,那么我们可以有一个中间层接受结构化请求并生成数据库查询并返回数据。 这看起来更像 (App -> Proxy -> DB) pipe理层的回应是,这是不理想的(但至less还是有争议的)。 我认为这种说法在很多地方都演过很多次,但是我没有看到任何具体说明他们提出的架构的利弊的事情。 提出的向后代理方法是否真的更安全,值得花时间来构build呢? 如果不是的话,如果你被要求实施这样的体系结构,会用什么来支持你的观点。

在一个大的(ger)子网上潜在的stream量问题

像这样的post: 现在公司局域网中的大多数stream量都是客户端到服务器,而路由器设置不是很好,而成为瓶颈和SPOF。 和一个子网上的200多个客户端在10年前并不是真正的问题,现在也不会是这样,你仍然可以阅读所有带有(非promisc)tcpdump的广播,而不会变得模糊 – 与带宽。 而ARP的工作对于客户来说也不成问题。 – rackandboneman 5月21日在19:34 …和这个 : 如果你们全都有50个客户端,那么如果子网是/ 8或/ 24,那么它就没有什么区别。 它的客户数量相同,stream量相同。 无论如何,networking的子网划分并不是真的基于计算机的数量,而是需要根据安全要求,业务隔离等来隔离系统。 …似乎与我从networking专业人员那里得到的build议相矛盾,他告诉我,我目前的10.0.0.0/8子网(大约20个客户端和2个服务器都连接到同一个交换机)很容易超负荷客户端会受到恶意软件的攻击,因为广播stream量比192.168.0.0/24子网上的stream量要高出几个数量级。 这可能是上面引用的海报所指的吗? 或者是build议过时?

最佳实践:运行在KVM主机上的bind,dhcpd,mysql,httpd等?

关于虚拟化的“最佳实践”,build议在KVM主机上运行bind和/或dhcpd等服务,还是应该从客户机上运行这些服务? 如何MySQL或httpd? 基本上,主机可以用作一个function系统,可能是更多的I / O密集型服务,从而绕过虚拟层? 我可以看到两种情况的优点。 我想知道什么是虚拟化的最佳实践。

DHCP中继与多宿主DHCP服务器

我正在勾画出一个新的networking拓扑结构,我不确定如何解决两个VLAN之间的DHCP问题。 10.50.2.0/23将持有我们的大部分用户,公司的wifi,打印机等。 10.250.3.0/24将包含需要访问我们的AWS VPN隧道的用户的一个子集 我打算使用L3交换机在子网之间进行路由,使用ACL控制哪个VLAN可以访问哪个方向(即3/24将能够访问2/23,而不是反之亦然)。 问题是10.50.3.0/24networking中的DHCP。 我可以通过交换机configurationDHCP中继,也可以在Windows 2008 R2 DHCP服务器中为该networkingconfiguration一个NIC。 哪个(如果有的话)是“正确”的方式?

什么时候应该创build另一个AD域,纯粹是为了减less复制stream量

我正在回顾一些假设的广告devisescheme,以供学习之用。 比方说,我有一个域和两个物理位置,站点和区议会。 这些站点通过有限带宽的广域网连接(例如1mbps或像单个T1)连接。 现在让我们说,我在每个位置有成千上万的用户。 如果我有2个域名而不是2个域名,复制stream量将会减less。 但是,成千上万的用户需要这样做才能成为一个有效的解决scheme(假设仍然只有一个IT部门,而且没有分离的政治\运营需求)? 我真的只是试图想出一个scheme,你只想创build一个额外的域,以减less复制stream量的目的。 这一切都发生在IRL吗? 由于增加了pipe理开销,Microsoftbuild议尽可能使用单个AD域。 也不能确定,如果我的scheme会阻碍,事实上,一个有数千用户的公司可能有足够的面团,只是买一个更胖的pipe道,并保持单一的域的基础设施。 编辑:对于假设的问题,我可能应该只是问“如果我没有任何政治或安全界限担心,我会需要另一个域名”的抱歉。 我认为Ryan所说的关于基础设施大师过时的问题很有意思。 虽然,旧的“Contoso的多域森林中的域X为什么不更新”是一个免费的免费考试问题。

云build筑devise

我正在AWS上为一个处理大量实体的系统devise云架构。 我希望这是这个问题的正确的StackExchange(所以对我来说看起来并不合适 – 随意迁移问题)。 问题描述 对于数据库中的实体(对象可以通过它们的键 – 基本上是一个noSQL DB),我有一个很大的数字(假设n = 1 000 000 )。 我有一个algorithm,能够采取两个对象,并产生一个值,表明它们的相似性(可以说,计算大约10毫秒)。 系统应该能够将一个任意实体与我的数据库中的所有实体进行比较,并且还能够识别我的数据库中的所有重复项(这意味着将每个实体与其他实体进行比较!)。 devise DynamoDB(或用于我的实体的类似的noSQL存储) 处理器 – 在EC2上运行的主要服务,它将加载所有实体密钥,并将计算请求放入可扩展队列(SQS) – 为其他工作人员分配工作量 工作负载队列 – 计算请求队列 工人 – 部署到ElasticBeanstalk的服务连接到工作负载队列。 工作人员连接到数据库,获取要比较的实体并运行algorithm 结果DB – 无论是关系型数据库还是非关系型数据库,都有来自工人的结果 我把它写在纸上,做了一些基本的估计(合理数量的工人使用多个线程),并发现执行双重身份识别需要太多的时间 – 这对于“一对多”比较是合理的,但试图执行1000000 ^ 2操作太多了。 我正在考虑在MapReduce中使用Hadoop,但是似乎我不得不为每个“一个对其他人”的比较启动一个新的工作(并且运行百万个工作听起来不是很快)。 因此,如果我的devise更好,克服这些缺陷,我会非常高兴。 而且,任务(每个比较)甚至可以执行而不需要运行数百个强大的实例(价格也是限制)。

在可扩展的networkingdevise上有什么好的资源?

我们目前将所有客户托pipe在一个数据中心。 我们希望在今年年底之前扩展到两个新的数据中心。 我的工作是弄清楚如何将我们现在的networking扩展到这两个地方。 我有一些基本的devise(数据中心之间的站点到站点之间的VPN,内部路由的OSPF,循环DNS来分配负载),但是我真的可以使用一些以前做过这个的人的build议。 我主要关心的是做出一个deviseselect,这会限制我们或者将来需要重新devise。 我们已经有一些deviseselect会阻碍我们在将来(例如,每个客户端自己的10.xxx / 24子网自己的VLAN,这将直到我们的第4093客户端)。 有谁知道如何创build一个可扩展的networkingdevise一些很好的资源? 编辑:我们的业务类似VPS托pipe,所以你可以想象,有所有types的stream量。 大部分是networking(80,443)和邮件,所以吞吐量是通常的优先级,然后是延迟。 我们想要扩展的商业原因是我们的客户可以在美国的东/西海岸或南亚的亚太地区托pipe他们的服务器。 IT的原因是在自然灾害的情况下给我们一个灾难恢复站点。 编辑2:只是要清楚,我正在寻找资源如何devisenetworking。 如何做到这一点(VPN,路由,DNS等)我可以做的细节。

TCP / IP和以太网开销的带宽规划

在典型的容量规划过程中,我看到的可能是一个简单的考虑, 只能估计预计要通过networkingpipe道的页面或数据大小。 这意味着就像在常规应用程序开发中一样,HTTP页面的平均响应大小为30KB,或者XML Web服务数据大小平均为100KB,则这些数字将被原始数据乘以预测的数量,以获得预期的带宽需求。 看起来,应用程序开发人员和架构师倾向于忘记或完全不知道应用程序数据被封装到底层传输层进行传输的事实。 所以他们很less考虑在TCP / IP包和以太网帧中由头部开销消耗的带宽。 我觉得在带宽规划期间应该考虑这些开销,但不知道如何准确计算这些开销。 有没有一个基本的公式或过程,因素这些开销百分比? 到目前为止,我还没有看到任何文章讨论这个问题。

关于服务器架构的好书?

当一个网站的stream量增长,我不认为一个vps的apache服务器是要走的路。 我想知道更多关于我应该如何设置服务器端架构。 我没有那么多硬件的东西(使用什么样的电缆,不同的CPU架构等),但对软件架构感兴趣: 什么服务器(Apache,Nginx的,鱿鱼,清漆等)使用,以及他们如何相互作用 一台服务器在一台机器? 多less个mysql服务器 多less个apache,nginx服务器等等。 “机器法院”是怎样的。 有没有关于这方面的好书?