Articles of networking

在networking层减轻“火灾”的攻击?

什么是系统pipe理员的想法,以减轻他们pipe理的服务器的“firesheep”攻击? Firesheep是一个新的Firefox扩展,允许任何安装它的人可以发现会议。 它是通过在networking上嗅探数据包并从已知站点查找会话cookie来实现的。 为扩展程序编写插件来侦听来自其他站点的cookie相对比较容易。 从系统/networking的angular度来看,我们已经讨论过对整个站点进行encryption的可能性,但是这会给站点索引,资产和一般性能的服务器和螺钉带来额外的负载。 我们调查的一个选项是使用我们的防火墙来执行SSL卸载,但正如我前面提到的,这将需要对所有站点进行encryption。 什么是防止这种攻击媒介的一般想法? 我已经在StackOverflow上提出了一个类似的问题,但是,看看系统工程师想到什么会很有趣。

请问Debian(GNU / kFreeBSD)+官方的ZFS支持是一个稳定的configuration吗?

看起来像Debian 6.0(Squeeze)将通过官方的GNU / kFreeBSD内核来支持ZFS 。 这为将Debian GNU / Linux集群的专用NAS服务器从OpenSolaris 2009.06转换为Debain提供了可能性。 服务器通过FiberChannel HBA和LAN vi InfiniBand HBA连接到SAN。 也许,让驱动程序在kFreeBSD上工作是相当困难的。 假设所有的驱动程序实际工作,这是一个稳定的设置?

你能完全禁止从本地networking的PC?

我想知道是否有可能完全禁止从局域网或无线局域网的PC? 我知道根据MAC地址禁止是无用的,因为它可以被修改。 PS:假定不需要凭证来连接LAN / WLAN。

build立一个在未来扩展的RAID 5

我正在build立一个NAS盒子,但是现在有点儿钱了。 我正在计划使用启动驱动器来启动盒子,然后使用一些低端驱动器来启动RAID 5configuration。 我在网上阅读了一些可能由于没有正确设置的人而导致的一系列复杂问题,并且无法得到一个确切的结果。 所以, 是否有可能升级(更换更大/更快的驱动器)和/或添加驱动器(不擦除和重build)? 对于没有备份的数据(由于数量庞大),这样做有多大风险? 任何提示/build议,我应该按照build立一个最好的情况下,以允许升级? 请注意,我真的在RAID 5和RAID 01之间。升级RAID 01会更容易吗?

在SAN上隔离不同卷(同一个RAIDarrays)上的数据库日志和数据是否具有性能优势?

在我的旧服务器上,我将它们分隔到不同的RAIDarrays上以提高性能。 使用SAN对我来说是新的,所以我不确定最佳configuration。 SAN:48个驱动器。 10K 600GB SAS。 RAID 50.4 Gbps连接。 更新信息: 所有48个驱动器都是同一个RAIDarrays的一部分。 我想知道是否有任何好处,以不同的数据和日志卷。 我知道,如果我分割我的SAN,可能会有一些好处,这取决于具体情况。 向我们销售SAN的戴尔代表表示,通过将所有48个磁盘保存在一个arrays中,并使用单独的卷(“LUN”?),可以获得最佳性能。 对不起,如果我的问题不清楚。

双节点linux SAN上iSCSI目标的故障转移有多好?

我正在评估使用两台现成的服务器构build廉价的iSCSI冗余SAN的可能性。 这个想法是运行Linux,起搏器和一个iSCSI目标 – 就像在linux-ha-examples上的SAN主动 – 被动一样。 当我读到以下内容时,同样的一页让我有些害怕: 在iscsi-target切换期间,可以在write-test.log协议中检测到一个间隙。 在我们的设置中,我们观察到延迟了30秒。 在连接ext3和iscsi故障转移时报告了一些问题。这个configuration已经用ext2和ext3testing过了,并且在两个文件系统上工作。 有没有人投入生产一个冗余的iSCSI SAN由Linux的盒子? 故障转移事件真的很糟吗? I / O冻结30秒听起来像是一场灾难,不是吗?

在具有LAN / WAN的交换机中,如何查找iSCSI SAN?

我正在build立一个具有3个服务器节点的VMWare ESXi 5环境。 戴尔推荐使用共享的2x Force10 S60交换机(iSCSI SAN,LAN / WAN)。 S60交换机非常强大。 他们有1.25 GB的缓冲区caching,<9us的延迟。 但他们是非常昂贵的(每个交换机的在线价格约为15000美元,实际报价则less一些)。 有人告诉我,“书中”至less应该有2个用于SAN的内部交换机,2个用于LAN / WAN的交换机(每个都有一个冗余)。 我知道每种方法的优点和缺点。 我想知道的是,使用较便宜的交换机从局域网中分离SAN是否更具成本效益? 这个问题的答案突出了我应该在SAN交换机中寻找的东西。 与SAN相比,我应该在LAN / WAN交换机上寻找什么? 有了上面关于SAN的链接问题: 如何衡量缓冲区延迟? 当你看到36 MB的缓冲区caching,是共享的还是每个端口? 那么36 MB将是每个端口768kb或36MB? 用3到6个服务器你真的需要多less缓冲区? 我还应该看什么? 我们的应用程序将大量使用HTML5 websockets(大量的持久连接)。 发送的数据量很小, 在客户端< – >服务器之间发送的数据不会被广播(不是聊天/ IM服务)。 我们也会做一些数据库报告(CSV导出,总和,一些连接)。 我们是一个小企业和预算。 我们可能只能花费不超过2万美元的开关总数(2或4)。

ESXi上的磁盘IO速度较慢,在虚拟机(freeNAS + iSCSI)上甚至更慢

我有一个服务器与ESXi 5和iSCSI连接的networking存储。 存储服务器在8.0.4版本的Raid-Z中有4x1Tb SATA II磁盘。 这两台机器通过千兆位以太网相互连接,与其他设备隔离。 中间没有开关。 SAN盒本身是1U超微型服务器,具有3GHz的Intel Pentium D和2G内存。 磁盘连接到集成控制器(英特尔?)。 raid-z卷分为三个部分:两个zvols,与iscsi共享,一个直接在zfs之上,与nfs和类似的共享。 我ssh进入freeNAS框,并在磁盘上做了一些testing。 我用dd来testing磁盘的第三部分(直接在ZFS之上)。 我从/ dev / zero复制了一个4GB(2倍的RAM)块到磁盘,速度是80MB / s。 其他的iSCSI共享zvols是ESXi的数据存储。 我做了类似的testing与time dd ..在那里。 由于dd没有给出速度,我把时间转移的数据量除以time 。 结果是大约30-40 MB / s。 那大约是freeNAS主机的一半速度! 然后,我testing了在同一ESXi主机上运行的虚拟机上的IO。 虚拟机是一台轻巧的CentOS 6.0机器,当时并没有做任何事情。 当时没有其他的虚拟机在服务器上运行,而磁盘arrays的另外两个“部分”未被使用。 类似的ddtesting给了我约15-20 MB / s的结果。 这又是下一个结果的一半左右! 当然这是raid-z – > zfs – > zvolume – > iSCSI – > VMFS – > […]

使用专用networking的公共IP地址

我有一个networking使用192.192.192.xnetworking地址为他们的专用networking。 看起来这些是在台湾分配的IP地址。 我不认为他们在那里做了太多业务,所以不应该“影响”他们的工作。 我的问题:是否有任何RFC信息或任何其他networking文章的最佳做法,我可以提出certificate将networking更改为真正的私人IP类networking?

Centos服务器不断跳转到地址而不是静态分配的地址

我有一个静态IP地址configuration的无头Centos服务器。 我禁用了networkingpipe理器,avahi守护进程等。每当我重新启动networking,它只跳转到10.155.90.100而不是所需的10.155.90.61,没有任何解释: 这是我的ifcfg-eth0: # Intel Corporation 82545EM Gigabit Ethernet Controller (Copper) DEVICE=eth0 BOOTPROTO=static ONBOOT=yes #HWADDR=00:50:56:b0:5a:57 IPADDR=10.155.90.61 NETMASK=255.255.255.0 GATEWAY=10.155.90.1 TYPE=Ethernet USERCTL=no IPV6INIT=no PEERDNS=yes NM_CONTROLLED=no 无论如何,它似乎正在运行DHCP。 我似乎无法得到比这更详细的日志在/ var / log / messges: Jul 11 12:50:33 NET[4767]: /sbin/dhclient-script : updated /etc/resolv.conf Jul 11 12:50:34 kernel: 8021q: adding VLAN 0 to HW filter on device eth0 Jul 11 12:50:34 […]