Articles of networking

文件服务器奇怪的问题

我有一个奇怪的问题,我似乎无法解决。 我们的域名上有文件服务器。 随机间隔,某些用户根本无法访问设置的共享,而其他用户可以访问。 我们都在同一个领域。 无法访问共享的用户无法ping通服务器的名称或IP地址(192.168.0.2)。 一个“修复”一直是分配一个静态IP给有问题的用户。 这解决了很多,但修复似乎并不总是工作。 我们有一个DNS服务器也在运行。 作为一名networkingpipe理员,我相对缺乏经验,但我们在这! 任何协助解决这个问题将受到感谢,因为它开始给我失眠的夜晚。

在proxmox中的虚拟机之间共享硬盘的最佳方式

我有一个专用服务器上的几个VPS。 虚拟化已经通过proxmox完成了。 我使用每个VPS作为networking服务器,我使用NFS共享/主分区。 但我认为它的performance并不像我预期的那样。 我不知道在proxmox中的VPS之间共享存储的最佳方式是什么?

NGINXdynamic子域代理

我们的团队最近从一个Apache服务器转移到了nginx,并且遇到了让我们的一个老代理工作的问题。 我们使用Elastic Beanstalk来进行部署,但是我们有一个代理,原因是无法通过不同的path到达EBurl。 这个想法是,我们可以通过代理到ElasticBeanstalk域的内部URL来访问我们的AWS机器。 例: 用户生成一个AWS机器,URL是: http://my-random-aws-machine-name.us-east-1.elasticbeanstalk.com/ 用户使用以下方式testing,而不是使用上面的URL: http://my-random-aws-machine-name.aws.test-server.ourdomain.com/ 换句话说… * .aws.test-server.ourdomain.com – > * .us-east-1.elasticbeanstalk.com 我们如何才能在nginx中工作? 这是旧的Apache代理: <VirtualHost 5.5.5.5:80> ServerName aws.test-server.ourdomain.com ServerAlias *.aws.test-server.ourdomain.com SetEnvIf Host "(.*?)\.aws\.test-server\.ourdomain\.com.*" proxyHost=$1.us-east-1.elasticbeanstalk.com ProxyPassInterpolateEnv On ProxyPass / http://${proxyHost}/ interpolate ProxyPassReverse / http://${proxyHost}/ interpolate </VirtualHost> 这使我们能够严格使用快捷url。 这也不是redirect – 它将地址栏设置为* .aws.test-server.ourdomain.com。 下面是我们对nginx的一个基本模板,尽pipe它是非常准确的,因为没有其他任何东西能取得任何成功: http { server { listen 80; server_name ~^(?<subdomain>)\.aws\.test-server\.ourdomain\.com$; location / […]

我应该使用SO_REUSEPORT,如果在许multithreading中使用相同的IP:端口有多个套接字接受器?

我应该使用SO_REUSEPORT和SO_REUSEADDR作为TCP,如果在Linux x86_64 kernel-3.16上的许multithreading中有许多具有相同ip:port socket acceptors ip:port

使用不同的云主机的应用程序和数据库/将有延迟与蒙戈阿特拉斯?

在不同的云提供商上同时安装Web应用程序和数据库服务器可以吗? 传统上,你真的需要在同一个networking上主机 – 但我想知道,现代networking,这是不是必要的。 我有一个在Linode上托pipe的Web应用程序(Aurelia / ASP.Net Core),我需要添加一个mongo数据库服务器。 我真的不想pipe理数据库服务器 – 所以宁愿使用像MongoAtlas或mLab等云服务/ PAAS,但我担心的是延迟。 如果我select与我的Linode托pipe的国家/地区相同的数据中心,我希望能够使用其中任何一个。 我的应用程序应该没有那么实时的响应,但是没有几秒钟的时间就不行。 任何人都可以评论这个经验吗?

Cloudberry裸机恢复networking共享访问

我正在做一个testing备份和恢复与云莓和运行到一个问题。 我的服务器是在vmware esxi上运行的Windows服务器2016版本。 我已经使用Cloudberry备份到本地NAS(Synology)上的共享文件夹。 共享文件夹由NAS上的本地用户帐户进行保护。 我完成了一个完整的映像备份,它是成功的。 然后,我使用“make a bootable USB”工具来制作ISO进行恢复。 我从同一台2106服务器上完成了这个工作,以便抓取它的驱动程序和设置。 我想恢复到VMWare Workstation中的虚拟机进行testing。 我安装我的虚拟机具有与原始服务器类似的硬件和足够的硬盘空间。 我装入并引导恢复ISO并拉起命令提示符来testingnetworking连接。 我可以ping NAS和谷歌。 但由于某种原因,它不会看到存储在NAS上的备份。 当我打开networking证书>添加/编辑networkingpath并检查NAS上文件夹的path时,它在那里并且是正确的,但“testing”失败,说明该path不存在。 出于某种原因,Cloudberry恢复环境无法向NAS进行身份validation并查看文件。 任何帮助将是伟大的,谢谢大家。

Windows 10连接到外部SMB共享

我目前在我的办公室有一台Synology NAS,我希望通过SMB远程连接。 这在我的MacBook上运行得非常好,我使用finder连接到smb:\\<domainname>\<share> ,但是我无法在Windows 10机器上做同样的事情。 networking环境是完全一样的。 我尝试使用\\<IP>\<share>和\\<domainname>\<share>映射networking驱动器,但每次都无法连接。 有关如何使其工作的任何build议? 提前致谢,

Hyper-V群集 – 节点的物理或虚拟networking适配器?

我只想提前说明这一点 – 我不是networking工程师,但我想了解更多关于如何从networking方面构buildhyper-v集群。 我们有一个之前已经设置好的hyper-v集群,我们正在设法弄清楚为什么这样安装。 目前看来,它已经被安装在10gig超级帧架构的交换机上,在这个交换机上有多个VLAN被中继。 然后,在hyper-v交换机pipe理器中,这些VLAN被分解到各自的networking中,我相信这是Hyper-V群集节点获得其networking连接的方式。 我对这些超微框架交换机一无所知,但我冒昧地猜测,我可以在硬件级别将各种VLAN分成多个networking,因此它们在每个节点上都显示为物理适配器,然后那些可以适当地分配给hyper-v,或者我可以使用Hyper-v虚拟地将它们分开,并且节点从虚拟适配器获得它的连接。 那么,有没有更好的办法呢? 我的直觉是在节点之前将其分解出来(如果可能的话),以便节点看到单独的适配器(pipe理,超v,客户端(中继),存储等),然后我们将相应的适配器分配到他们需要的地方而不是依靠hyper-v服务来打破它。 或者,我们是否想要将其全部虚拟化 – 是一种首选还是更稳定的方法? 我希望我所有的术语都是正确的 – 我正在努力学习这个东西,所以你的帮助和耐心是赞赏!

如何设置OpenNMS具有不同级别的两种types的Node Down事件?

例如,我有一个子网中的笔记本电脑保持打开和closures,所以如果该子网上的节点掉下来,我会把它当作中间事件。 但是,在另一个子网上,有一些重要的服务器,如果一个人倒下,我会成为重大事件。 我怎样才能让OpenNMS单独处理它,最好通过不同的事件,但不同的警报将是一个可行的select? OpenNMS版本:20.0.1 Java版本:1.8.0_131 Java SE运行时环境:1.8.0_131-b11 Java HotSpot 64位服务器VM:25.131-b11,混合模式 操作系统:Windows Server 2016 PostgreSQL版本:9.6.3

configuration多个NIC的Xen虚拟机pipe理程序

我想用2个网卡来configurationxen。 dom0configuration了CentOS7,其中eth0接口面向本地LAN(10.12.XX),eth1(192.xxx)连接到企业局域网。 Dom0按照Xen4Centos Wiki的指导进行configuration,eth0 NICconfiguration为根据networking指南桥接xenbr0。 1. Created the bridge: nmcli con add type bridge con-name xenbr0 ifname xenbr0 nmcli con modify xenbr0 bridge.stp no nmcli con modify xenbr0 bridge.hello-time 0 2. Make the eth0 interface slave to the bridge: nmcli con modify eth0 connection.master xenbr0 connection.slave-type bridge 我将eth0的所有初始设置复制到xenbr0。 eth0和xenbr0的networking脚本在这里: [eth0] TYPE=Ethernet DEFROUTE=yes IPV4_FAILURE_FATAL=no NAME=eth0 UUID=ba6411dc-b9a6-41b4-868c-7bdab79b729b […]