情况如下: 我可以将RDP放入电脑,进入C:\ Windows \ System32,并查看文件版本以查看我的内容。 如winlogon.exe,explorer.exe等 如果我映射驱动器,并尝试检查文件版本,我看不到它。 这是空白的。 Winlogon,资源pipe理器,服务,所有这些可执行文件没有文件版本,当我通过networking检查他们。 我使用的扫描程序使用相同的凭据,无法远程读取文件版本,但可以在本地读取。 所以似乎有些东西阻止文件夹中的文件被远程读取。 我检查了System32文件夹的权限,它看起来不错。 我还将文件夹的所有者更改为本地pipe理员组,我的用户是其中一员,只是为了确保。 仍然无法看到文件版本。 如果有本地安全策略或GPO阻止某些文件夹中的信息被远程读取,我一直无法find任何信息。 手动检查策略也没有任何效果,尽pipe我还没有检查过每一个。 所以我build立了一些虚拟机,创build了一个新的域,试图通过networking看到这些文件的版本。 我可以。 在这两种情况下,用户都是域pipe理员,并且没有对组的权限进行更改。 在这两种情况下,我映射C $共享,然后导航到Windows \ system32目录。 我已经在10台服务器上复制了这个问题,并且更改了映射服务器和映射服务器。 没有新东西,仍然看不到。 这些服务器都是Windows Server 2012 R2。 有一个GPO或许可我失踪或什么? 有谁知道为什么文件版本属性被阻止通过networking?
我有一个现有的Azure虚拟networking网关,我试图重新configuration用于BGP,按照https://azure.microsoft.com/en-us/documentation/articles/vpn-gateway-bgp-resource-manager-ps/ 。 但是,我无法find如何更改默认的ASN。 目前$gateway.BgpSettingsText显示: { "Asn": 65515, "BgpPeeringAddress": "10.231.1.254", "PeerWeight": 0 } 我没有看到最新的AzureRm Powershell中的任何内容,这将允许我改变这一点。 有没有办法改变这个? 或者是Remove-AzureRmVirtualNetworkGateway的唯一解决scheme,并重新开始?
我想介绍networking变化到docker集装箱。 具体来说,我希望能够运行如下命令: sudo tc qdisc add dev vethecb732a root netem delay 500ms 400ms distribution normal 以及docker机环境内的其他相关的networkingconfiguration命令。 Docker似乎为docker-machine中运行的每个容器创build并命名一个networking适配器。 但是,我不确定如何将容器中可用的信息与实际随机生成的networking适配器名称相关联,以便正确执行上述命令。 当我从这个容器的docker-machine中的ip addr获得信息时: 22: veth5009782@if21: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default link/ether 4a:f8:d0:05:b6:90 brd ff:ff:ff:ff:ff:ff inet6 fe80::48f8:d0ff:fe05:b690/64 scope link valid_lft forever preferred_lft forever 这些是容器的networking设置: "NetworkSettings": { "Bridge": "", "SandboxID": "3092a7a4d0c09b7461ec2683653f315ed872710e9f74656b6292ada8d2c45931", "HairpinMode": false, "LinkLocalIPv6Address": […]
如果我有这样的静态networkingconfiguration: [Match] Driver=mlx4_en [Network] Address=10.1.0.10/24 Gateway=10.1.0.1 DNS=8.8.8.8 并说我有一个双端口网卡,使用驱动程序mlx4_en那么我显然有两个匹配。 systemdnetworking是如何处理[Network]定义的呢? 显然,给两个接口使用相同的IP是一个坏主意。
我正在进行有关在HP ProCurve交换机上configuration聚合链接的培训。 查看关于链路聚合的非供应商特定的文档,“静态”链路聚合组(LAG)与dynamic的定义特征是在两端手动configuration,没有使用LACP等协商协议。 这我不难理解。 当我咨询HP ProCurve交换机的文档时,出现了一些混淆。 他们的LAG任期是“中继群”。 中继线群可以是dynamic的也可以是静态的。 基于我上面的理解,我期待它是一个dynamic使用LACP的简单情况,而静态是手动configuration的。 但是,可以使用以下三种组合: Trunking Method | LACP | Trunk | —————–|——————-| Dynamic | Yes | No | Static | Yes | Yes | 该表可以在“ProCurvepipe理和configuration指南”中find。 对于不同的固件版本有多个版本,但可以在本文档的第110页find一个示例 所以,我的问题是,“Static Trunk”和“Static LACP”有什么区别? 为什么LACP甚至有一个静态中继选项,如果没有任何协议? 文件继续解释为什么你会使用不同的选项的一些原因,但它仍然让我缺乏基本的了解。
我正在使用PowerShell脚本来pipe理我们的文件服务器的权限。 一般来说,这工作得很好,但是有时候目录被重新命名。 这当然不会影响权限,但是脚本正在引用存储想要的权限的数据库。 当一个目录被重新命名时,分配的权限不能再与该目录相关联。 在这种情况下,能够基于不是基于目录名称的文件系统信息来识别目录将是很好的。 有没有办法做到这一点? 文件服务器正在运行Windows Server 2012,我们正在使用NTFS作为文件系统。
我有一个桥梁正在用作docker的桥接口,并通过ipv6接口桥接到我们的VPN。 当我手动设置这个桥,一切工作正常,我可以连接到vpn(从我的笔记本电脑),并ping bbbb::2000以及所有的docker容器(如bbbb::242:ac11:4 )就好了。 然而,将它作为一个configuration文件,会导致启动过程花费几分钟的时间,消息cloud-init-nonet waiting [10|60|120]s for network device ,一直Waiting up to [60|120] more seconds for network configuration… cloud-init-nonet waiting [10|60|120]s for network device出现,随后(最终) Waiting up to [60|120] more seconds for network configuration… 一旦它终于引导,桥梁确实工作,但长时间的重新启动周期关系到我。 所以我的问题(除其他外)是:我的configuration文件有什么问题,启动需要这么长的时间? 我最初的想法是,可能在那里有bridge_ports tap0导致它无法启动,直到tap0启动,但删除bridge_ports可以防止桥接接口工作(并保持长时间启动),所以它一定是别的东西。 /etc/network/interfaces.d/br0.cfg # docker bridge network auto br0 iface br0 inet6 static bridge_ports tap0 bridge_stp off up echo […]
我的路由器是思科:3800系列 WAN IP g0 / 0: 123.123.123.4 内部n / w fa0 / 0: 192.168.0.4 webserver IP: 192.168.0.5 域名: example.office.com(123.123.123.4) 我在g0 / 0上使用nat,在f0 / 0上使用nat。 NAT规则是: ip nat inside source list 1 interface g0/0 overload ip nat inside source static tcp 192.168.0.5 80 123.123.123.4 80 ip nat inside source static tcp 192.168.0.5 443 123.123.123.4 443 在来源清单1内,我申请了任何许可。 […]
我有一个三台服务器的Hyper-V 2012群集,它指向基于HP MSA P2000 G3 SAN的LUN用于虚拟硬盘存储。 我遇到了速度问题,一个突出的问题是SAN的读/写速度有所延迟。 我与HPE进行了交谈,他们检查了SAN的硬件故障,没有发现任何问题。 不过,对我来说,过去四天的performance数据似乎远高于可接受的10-20ms范围。 我没有任何东西可以比较我的图表,因为基线从未被采纳。 这个存储系统过去运行良好,没有任何近期的变化。 如果任何人都可以提供任何见解,我将非常感激。 非常感谢, 史蒂夫 P2000 Perfromance图
我正在尝试测量黑匣子应用程序的线对线延迟。 该应用程序从事TCP卸载(内核旁路),它通过NIC使用传入的UDP数据包,作为响应,通过同一个NIC发布传出的TCP数据包。 我可以为此使用哪些应用程序? 运行两个版本的应用程序 – 一个在Windows服务器上,另一个在Linux上 这将是类似的结果 – http://www.coralblocks.com/index.php/2015/08/tick-to-trade-latency-numbers-using-coralfix-and-coralreactor/ 上述方法的问题似乎是因为我们的应用程序绕过了内核,所以我们需要logging来自NIC本身的传入和传出数据包的时间戳(wireshark一旦数据包到达内核就使用时间戳( https:// www.wireshark.org/docs/wsug_html_chunked/ChAdvTimestamps.html ) 有任何想法吗? 如果我错了也请纠正我 – 我是一个完整的networkingnoob