Articles of networking

云存储(Amazon AWS,Microsoft Azure,Google Apps)与传统数据中心存储networking(SAN和NAS)有何不同?

有些困惑,因为我的问题,使简单: “大型云提供商使用什么types的存储,为什么? 据我所知,无论在典型的数据中心还是云端,我都找不到任何官方的存储networking差异,所有的云提供商都使用与典型的数据中心不同的DAS。 即使DAS比SAN或NAS还有许多缺点,我想了解为什么使用DAS的云存储或应用的细节。 任何资源或描述将不胜感激,让我清楚。 编辑:当阅读“大规模云build设的networking挑战和合作方法”一文时,David Bernstein和Erik Ludvigson(思科)提到, 奇怪的是,我们没有看到使用NAS或SAN的主要提供商的云。 典型的云架构使用DAS,这不是典型的数据中心存储方法。 但是在这里有一个冲突:在我看来,也在本文稍后部分,云应该使用SAN或NAS,因为当虚拟机移动到另一台服务器但是仍然需要从原始服务器访问存储时,DAS是不合适的。 影响云selectDAS,NAS或SAN的其他原因是什么? 大型云提供商使用什么样的存储,为什么?

对于内部集群来说,使用IPv6是个好主意吗?

对于内部群集(数据库服务器,Web服务器等),使用IPv6更好,更快,更安全? 并且利用IPv4来进行互联网连接。 这是个好主意吗? (抱歉,新的问题)。

用于WiFistream量分离的VLAN(新增到VLAN)

我使用不同部门的交换机运行学校networking。 全部路由到中央交换机访问服务器。 我想在不同的部门安装WiFi接入点,并通过防火墙(一个Untangle盒子,可以俘虏入口的stream量,提供身份validation),然后进入局域网或互联网。 我知道AP在相关交换机上连接的端口需要设置为不同的VLAN。 我的问题是如何configuration这些端口。 哪些被标记? 哪些没有标记? 我显然不想中断正常的networkingstream量。 我是否正确地说: 大多数端口应该是UNTAGGED VLAN 1? 那些有WiFi接入点的应该是UNTAGGED VLAN 2(仅) 到中央交换机的上行链路应该是TAGGED VLAN 1和TAGGED VLAN 2 中心交换机的外部交换机的input端口也应该是TAGGED VLAN 1和TAGGED VLAN 2 将有两个链接到防火墙(每个在它自己的NIC上),一个UNTAGGED VLAN 1(用于正常的互联网接入stream量)和一个UNTAGGED VLAN 2(用于强制门户authentication)。 这意味着所有无线stream量将通过单个NIC进行路由,这也将增加防火墙的工作负载。 在这个阶段,我不担心那个负载。

人们如何监视linux上绑定从属接口的状态?

我已经build立了两个接口作为绑定从属(eth0和eth1绑定为bond0)。 人们如何监测奴隶的地位? 如果链接在一个界面上失败,你如何得到通知? 你在/ sys / class / net / bond0或/ proc / net / bonding / bond0中search了什么吗? 有一个守护进程,我可以configuration得到通知? 一些上下文:我正在运行SUSE 11服务器SP1,我对任何graphics工具不感兴趣,因为此服务器没有运行X11。

启动IISpipe理器具有Web平台提示

每次我在2012 Datacenter中打开Internet信息服务pipe理器时,系统都会提示您安装Microsoft Web Platform以“保持与最新Web平台组件的连接”。 我曾经在网上嗅探过,但我无法理解那个平台可能会为我做什么,也不知道为什么我会被提示安装它。 在我看来,我已经安装了一切,Web平台安装程序将安装即IIS? 为什么我被提示安装东西/垃圾我不明白在服务器机器上?

局域网的Windows 7networking性能调整

我想在Windows环境中调整Windows 7 TCP堆栈的速度。 背景信息的位:我已经有一个Citrix XenServer与Windows 2008R2,Windows 7和Debian Lenny搭配Citrix内核,Windows机器上安装了iperf服务器进程,运行在不同的主机上,还有Debian Lenny。 服务器是空闲的,testing重复了几次,以确认结果。 虽然使用iperf 2008R2进行testing可以达到600-700Mbps左右的速度,但无法调整,但我无法find任何指南或参数设置,使Windows 7实现超过150Mbps的任何事情,而不会改变TCP窗口大小,使用-w参数iperf 。 我尝试使用netsh autotuining disabled , experimental , normal和highlyrestricted – 没有改变。 改变congestionprovider者不会做任何事情,就像rss和chimney 。 将所有可用的设置设置为与Windows 2008R2主机上相同的值不起作用。 总结: Windows 2008R2默认设置:600-700Mbps Debian,默认设置:600Mbps Windows 7默认设置:120Mbps Windows 7默认, iperf -w 65536 :400-500Mbps 虽然缺less的400Mbps的性能,我责怪蹩脚的Realtek网卡在XenServer主机(我可以做〜980Mbps从我的笔记本电脑到iperf服务器),这并不能解释为什么Windows 7无法实现良好的性能没有手动调整窗口大小应用程序级别。 那么,如何调整Windows 7呢?

临时名称parsing失败

每当我在CentOS服务器上进行任何需要DNS查询的事情时,我都会收到错误消息。 例如: [root @ 15557 etc]#wget http://www.whitehouse.gov/sites/default/files/rss_viewer/birth-certificate-long-form.pdf – 2011-05-03 20:55:35 – http://www.whitehouse.gov/sites/default/files/rss_viewer/birth-certificate-long-form.pdf 解决www.whitehouse.gov …失败:名称parsing暂时失败。 wget:无法parsing主机地址“www.whitehouse.gov” 如果我重新启动服务器,那么这个问题会在很短的时间内消失,但是一小时之后总会回来。 如果我更改了resolv.conf列出的名称服务器的IP地址,问题并不是固定的,即使我用像8.8.8.8这样的通用名称服务器replace它们。 如果在更改resolve.conf之后刷新主机caching,它也不能解决问题。 服务器重新启动后, resolv.conf被更改回它的默认值(我猜是通过一些DHCP)。

将LXC容器桥接到主机eth0,以便可以拥有公共IP

更新: 我find了解决scheme: http : //www.linuxfoundation.org/collaborate/workgroups/networking/bridge#No_traffic_gets_trough_.28except_ARP_and_STP.29 # cd /proc/sys/net/bridge # ls bridge-nf-call-arptables bridge-nf-call-iptables bridge-nf-call-ip6tables bridge-nf-filter-vlan-tagged # for f in bridge-nf-*; do echo 0 > $f; done 但我想对此有专家意见:禁用所有bridge-nf- *是否安全? 他们在这里干什么? 更新结束 我需要将LXC容器连接到我的主机的物理接口(eth0),阅读大量教程,文档和博客文章。 我需要容器有自己的公共IP(我以前做过KVM / libvirt)。 经过两天的search和尝试,我仍然无法使用LXC容器。 主机运行一个新鲜安装的Ubuntu服务器Quantal(12.10)只有libvirt(我没有在这里使用)和lxc安装。 我创build了容器: lxc-create -t ubuntu -n mycontainer 所以他们也运行Ubuntu 12.10。 / var / lib / lxc / mycontainer / config的内容是: lxc.utsname = […]

第二层环路避免:三个串联的开关

我知道这似乎是一个家庭作业的问题,但它实际上是一个更大的项目(和networking)的一部分,需要把它分解成大块,所以我清楚我在做什么。 我从来没有用[R / M] STP工作,只有设置一个静态LAG之前,所以我不知道我在这里需要什么。 我有三台交换机全部在同一个广播域内,通过VLAN标记,由一个LAG组互连,每个LAG组由2个铜质千兆以太网组成。 假设这些交换机支持LAG / LACP / * STP / 802.1q VLAN标记; 为了比较而尽量减less供应商专有的扩展,但如果有供应商“重新标记”的开放标准,或值得一提,请随时这样做。 目标是: 通过B和C为交换机A提供冗余的上行链路 在两个上行链路上均具有负载均衡/增加的带宽(如果可能的话,即4 x GbE LAG组或2 x 2 GbE LAG组“主动/被动”(如果有意义的话) 我不确定的是: 下面是我认为这个循环是如何工作的:来自机器B1(在交换机B上)寻找属于机器A1(在交换机A上)的1.2.3.4的ARP请求将从A到B和A到达交换机A C到上行链路。 交换机A(我假设)首先通过直接的B-to-A LAG上行链路接收广播,但是将从两个上行链路LAG端口(即,LAG A到B是端口1/2和LAG A到C是端口23/24),令交换机B大惑不解。 我是否正确地解释了这个循环? 如果我的断言#1确实是一个循环,我需要* STP。 从我读到的,STP是古老而缓慢的; RSTP要快得多(可能是除了最大的networking之外的其他所有网站都没有意义,似乎是Intarweb所说的)。 然后是MSTP,这让我感到困惑:似乎允许多个STP组为多个VLAN,但假设我只处理一个VLAN(2),这是必要的吗? 如果我添加了所有3台交换机的第二个VLAN,该怎么办? 我非常肯定,M-LAG(我认为这就是所谓的)将允许跨越交换机的LAG,但是我不清楚如果这将是包括4个以太网连接的LAG,包括交换机A的A- to-B(2)和A-to-C(2)上行链路? 我已经在一个论坛上看过(不知道在哪里),LACP将消除对* STP的需求,因为它是“dynamic的”,并且“知道”哪个上行链路基于负载均衡algorithm转发广播/单播通信量,但有人在后来插话,事实并非如此。 为了解决这个问题,考虑到LAG / LACP / * STP的缩写,以及我的拓扑结构,我应该怎么做呢?

在为小型办公室虚拟化项目selectSAN时,最重要的考虑因素是什么?

我正在使用免费的VMware ESXi 4.0平台,将运行6种不同操作系统风格(不问)的6台物理服务器整合到两台相同的物理服务器(Dell PowerEdge 2900)中。 我们将在1GbEnetworking上安装iSCSI SAN,并将所有虚拟机映像存储在SAN上。 每个物理服务器将运行3个虚拟机,如果物理服务器发生故障,我们将手动切换其他3个虚拟机。 这些都是内部服务器,虽然很重要,但他们可以容忍一些停机时间(比如说<1小时),以保持与HA相关的成本和复杂性。 我现在需要在低预算的情况下select用于安装的SAN。 我们目前有大约2TB的数据,但是我希望能够增长,在其他驱动器上备份虚拟机快照,并将它们移到不同的位置等等。所以我想知道的是: 哪些是必须有这个设置的function,没有它使用SAN是不值得的? 我们大多是戴尔的商店,所以我一直在看EqualLogic PS4000E高可用性模型。 任何意见,轶事,这种模式不好的经验? (这是less数几个可以容纳物理服务器现有磁盘的机型之一。) 如果您可以推荐一些不是戴尔的产品,但它有更好的价值 ,我绝对会考虑它,但请确保它包含在“ VMware兼容性指南”中 。 注意事项,要注意的事情? 更新: 由于价格和磁盘不兼容,我放弃了EqualLogic模式。 你们推荐的MD3000i看起来不错,但在决定之前我还是想考虑其他的select。 任何人都可以评论富士通ETERNUS DX系列? 我仍然在等待戴尔代表MD3000i的报价,但是我有一个关于网站的想法。 富士通ETERNUS DX60也有一些初步的价格,这表明即使我在戴尔重复使用磁盘,富士通也会花费相同的configuration,购买新的磁盘。 决定: 我们还介绍了HP StorageWorks P4300 G3和P2000 G3产品线。 P2000 G3产品线具有FibreChannel / iSCSI组合控制器,即使没有任何磁盘,也比Dell和Fujitsu昂贵。 P4300 G3产品线只有iSCSI型号,但是他们强迫你购买一个全部有16个磁盘的系统,所以它最终也太昂贵了。 戴尔和富士通在RAID10中使用4个1TB Nearline SAS磁盘,我们得到了非常相似的大约6K欧元的报价。 由于我们戴尔已经为我们提供了各种硬件,并且与他们有良好的关系,所以我们select了PowerVault MD3000i。 非常感谢大家的意见!