Articles of 虚拟化

虚拟桌面安装小团队

我们有一个24 GB的RAM和四核心工作站需要准备好作为虚拟桌面服务器。 需要的是开发人员(5个用户)必须能够从局域网或互联网login到工作站,以便将其用作虚拟开发机器。 我们没有一个静态IP,所以我相信它可能无法在互联网上工作。 我们正在考虑将我login或Team查看器作为解决scheme,但在这种情况下,只有一个人可以login。 有没有更好的方法来共享LINUX或WINDOWS(7,8或10)到开发团队? 请build议: 平台(Windows 7,10,8或Ubuntu) 可视化软件 它将用于开源PHP开发。 谢谢

有效pipe理多个Windows 7虚拟机

我将在Linux服务器上运行多个(至less10个,可能更多)Windows 7虚拟机,并且正在寻找一种有效pipe理这种方法的方法。 除了MAC地址/主机名之外,所有的机器都是相同的。 虚拟化的原因纯粹是同一个任务的并行处理。 对我来说,最理想的情况就是拥有一个主映像(我使用Windows Updates的东西),在启动时,实际的处理虚拟机从中克隆。 我GOOGLE了很多,但我似乎无法find像这样的东西。 我能find的最接近的是创build一个主虚拟机并创build链接克隆。 每当我更新主VM时,我将不得不删除所有链接的克隆,并根据最新的快照创build新的链接克隆。 我想知道这是否是解决这个问题的最好方法。 就技术而言,我目前正在倾向于virtualbox无头虚拟机。 你们有什么build议可以更有效地做到这一点吗? 或者你会推荐fe Xen这个特定的场景?

Hyper-V主机内存要求。 可能过度分配给访客虚拟机?

系统: PowerEdge R430 英特尔至强E5-2440(双) 32GB内存 Hyper-V 2012 R2 虚拟机: DC – 8GB内存 APP – 19GB RAM 虚拟机没有configuration为dynamic内存。 客户抱怨APP服务器性能不佳。 在查看系统资源(主机)我注意到,可用的RAM只有71MB。 APP服务器上使用的RAM只有4GB。 我试图查找文档,指出应该为主机操作系统分配多less内存(最佳实践),但仅在为虚拟机configuration内存时发现命中。 在做任何改变之前,我想看看能否find更多具体的信息。 请让我知道,如果我错过了任何信息,我会很乐意编辑我的文章。 谢谢。

2节点故障转移群集

我需要构build一个2节点的Hyper-V故障转移群集,这是非常简单的权利? 问题是硬件已经被购买了。 这两台服务器是相同的,并批准 相关规格: 适用于操作系统的250GB驱动器(Microsoft Hyper-V 2k12 R2) 14TB raid10驱动器 64GB内存等。 另外我们有一台Synology DS415 + NAS,但是我的老板想把内置的驱动器当作CSV使用,而NAS将作为一个见证磁盘(有2TB的驱动器…… 叹气 ) 如果有可能,是否有适当的方法来做到这一点? 购买另一台NAS用于集群存储不是一种select。 起初,我正在考虑同时制作iSCSI Target Server和Initiator两个节点,但是我不认为这是正确的做法!

pipe理Windows Server 2012并pipe理Hyper-V VM(同一物理网卡)

我正尝试使用Hyper-V在其中部署一个pfSENSE盒子。 但是,情况是: 3个VLAN VID:1000 VID:2000 VID:3000 在物理交换机端口上,我使用这3个VID标记了服务器物理端口,并在VID 1上标记为untagged 我想在Windows Server 2012 R2中实现的目标是能够通过VID 2000pipe理物理服务器,并且能够中继pfSENSE(VM)虚拟NIC,因此pfSENSE可以参与所有3个vlans广播域。 这可能吗? 谢谢!

Qemu如何处理内存?

我真的很难理解一些东西,我想知道是否有人有这方面的经验,并能够提供帮助。 我有两个KVM VMHost,一个运行qemu 2.4.1,另一个运行1.1.0。 在每个虚拟机上,我们都有一台运行CentOS 6的分配了80GB内存的虚拟机。这两个虚拟主机都运行着CentOS 6。 在1.1.0盒子里,当我在占用所有80GB内存的虚拟机中运行一个进程时,Qemu分配了80GB并保留它。 如果你看上面你看到的QEMU过程的RES大小是80GB。 空闲命令确认内存不空闲。 在2.4.1框中,当我做同样的事情时,它分配80GB到虚拟机,RES列确认。 但是,一旦我杀死虚拟机内的进程占用了所有的内存,Qemu似乎把内存送回系统。 RES列一直保持在80GB,但是我可以逐渐看到我的自由内存增加了自由的命令,直到它几乎全部回来。 我不知道这是为什么,这让我困扰。 我期望的行为是1.1.0 Qemu虚拟主机给了什么。 这就是为什么人们使用内存膨胀(这实际上是我正在试验)。 它几乎看起来像2.4.1框是自动气球,但我的RES列永远不会减less,所以我不知道这是可能的。 我不确定是否有一个我不知道的QEMU变化或什么… 任何有识之士将不胜感激。 谢谢!

lxc 1.1.2在Debian Squeeze上

我在Debian Squeeze(Linux kernel 3.4.34)中运行lxc 0.8.0。 有没有人在Linux内核3.4中运行lxc 1.1或更新? 据我所知,docker需要至less3.16的Linux内核版本。 什么是支持lxc 1.1的Linux内核的最低版本?

iperf的实际发送速率总是低于预期的目标带宽,直到达到一定的均衡。 为什么?

我在同一个虚拟机pipe理程序上的两个虚拟机之间做了一个UDP iperf 2.0.5-Ubuntutesting。 从下面的iperf输出中可以看出,我用“-b 686M”标志开始了我的第一次testing。 但是,iperf报告说只能以633Mbps(目标带宽的92%)发送stream量。 然后,我将目标带宽降低到633Mbps。 但是,iperf只能以604Mbps(目标带宽的95%)发送stream量。 然后我一直这样做,直到在561Mbps达到某种平衡,最终目标带宽一致地匹配实际带宽。 这里发生了什么? 为什么iperf以较低的速率发送指定目标带宽的stream量? 显然,从第一次testing运行iperf有足够的CPU资源生成686Mbps的stream量,如果真的想。 root@ubuntu:/# iperf -u -c 192.168.71.135 -b 686M -t 10 ———————————————————— Client connecting to 192.168.71.135, UDP port 5001 Sending 1470 byte datagrams UDP buffer size: 208 KByte (default) ———————————————————— [ 3] local 192.168.71.136 port 37449 connected with 192.168.71.135 port 5001 [ ID] Interval Transfer […]

lxc / lxd中的networking命名空间在哪里?

我想了解 lxd / lxc上下文中的命名空间 。 我有两个容器,分别将eth0桥接到主机上的br1和br2 。 这是通过虚拟以太网接口完成的 root@srv:~# ip link (…) 5: br1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether fe:f0:ca:e8:c4:ae brd ff:ff:ff:ff:ff:ff 6: br2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether fe:45:66:a8:37:a7 brd ff:ff:ff:ff:ff:ff 11: vethHRMPOM@if10: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master br1 […]

如何使用虚拟接口作为默认接口

我有一个云SSD VPS @ OVH,我想改变用于请求的默认接口。 我有两个接口:eth0(这是默认的接口)和eth0:0(这是我想使用的新的虚拟接口)。 这里是route -n和interfaces文件的输出: daniil@vps262458:~$ route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 164.132.40.1 0.0.0.0 UG 0 0 0 eth0 164.132.40.1 0.0.0.0 255.255.255.255 UH 0 0 0 eth0 daniil@vps262458:~$ cat /etc/network/interfaces # The loopback network interface auto lo iface lo inet loopback auto eth0 iface […]