有一个Xen群集,我真的很喜欢这个设置。 它由2个节点组成(我们称它们为1和2)。 每个节点有2个未被搜查的驱动器(A和B)。 A1通过DRBD复制到A2,B2复制到B1。 当机器1停机时,虚拟机在机器2上出现,反之亦然(只有1/2性能) 我对此感到高兴。 这是便宜,灵活和健壮,但它不是完美的…它不让我rest。 也许你可以帮助我做得更好(或者有一个比这更好的替代架构…我不反对VMWare或其他工作) 这是我的问题: Xen没有像VMWare那样方便的转换器。 还是呢? (免责声明:我爱上了VMWare转换器) 对于大多数IT人员来说,DRBD仍然是个未知数(甚至可怕?)。 我不想成为唯一知道如何工作的专家。 我想要的东西就像VMware制造的一样虚弱。 DRBD的一些简单的Web前端可能? 更好的是,有没有这样的设备(freeNAS,monowall和朋友)还是某种即插即用的产品? 如果这意味着我不再自己动手并获得某种供应商支持,我不介意多付钱。 与上面的问题有关:上次我有一个这样的系统是几年前,我总觉得我在stream血的边缘,玩的东西太多了。 这很有趣。 VMWare没有这样坚实的企业感觉。 这一次,我不想要任何“乐趣”:-)我只是想让它工作,永远不会停止工作。 也许这是因为我还在使用Xen 2.0和DRBD 0.7,从那以后肯定有很多变化,但是有一些事情告诉我,我仍然在进行大量的自定义内核编译和挑战性的故障。 这一次,我想不惜一切代价避免这种情况。 我是通过一个1Gb以太网运行的。 记住以上几点的最好方法是双倍或三倍? 也许我可以总结上述的所有。 我该如何歪曲和愚弄这个Xen群集架构呢? 谢谢
我的Ubuntu服务器有一个物理接口eth0 。 我想分配3个IP(不同的子网)到服务器。 我不能使用默认的虚拟接口创build工具,如ifconfig或ip addr add (例如eth0:0 ),因为对于这3个ip中的每一个,我需要指定一个默认网关。 因此,是否有可能连接到eth0的桥接器(以及我想要的多个tap或tun接口),但是每个虚拟设备都可以通过eth0连接到子网上的accessbile。 EDIT1: 想象一下,我想要5个以太网接口连接到5个不同的networking。 但我不能有5个接口。 所以我购买一台非网pipe型交换机,并将所有5个networking的cat5线连接到该交换机,并将该交换机的一个端口连接到Ubuntu服务器的eth0 。 为了处理Ubuntu服务器上的所有5个networking,我创build了5个虚拟接口,它们的行为与物理接口(eth1,eth2等)完全相同,遍历eth0并最终到达交换机。 我不介意所有这些单独的networking是否遍历一个不受pipe理的交换机。 但是我希望我的Ubuntu服务器把这些networking看作是连接到5个物理接口的。
在我们的networking(1.0 / 24),我们有一些服务器。 其中一台服务器运行VMware ESX,其中三台虚拟机将各种网站和应用程序托pipe到外部世界。 目前,服务器和每个虚拟机在与networking其余部分相同的子网和物理交换机上都有自己的本地IP地址。 我想知道这个的安全影响。 我想知道我没有留下任何漏洞的安全漏洞。 我认为,因为虚拟机在线并在网上公布,所以不需要太多的努力来追踪本地IP,并立即看到其他设备(假设入侵者具有合理的技能和知识水平)。 我知道我们使用的Netgear prosafe交换机支持VLAN,而且我知道我们使用的Draytek Vigor 2820路由器同时支持VLAN和第二个子网(?)。 我想知道什么是“正常”的解决scheme,如果我需要去设置VLANS或一些防火墙规则可以做到这一点?
在使用virt-install进行操作系统安装后,我的guest虚拟机有一些问题需要重启。 无论出于何种原因,virt-install在创buildVM时都坚持要插入“–no-reboot”: LC_ALL=C PATH=/sbin:/usr/sbin:/bin:/usr/bin QEMU_AUDIO_DRV=none /usr/libexec/qemu-kvm -S -M rhel6.2.0 -enable-kvm -m 512 -smp 1,sockets=1,cores=1,threads=1 -name centos62test -uuid f4938758-98f1-cda3-5ec9-d91d6cc40596 -nodefconfig -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/centos62test.monitor,server,nowait -mon chardev=charmonitor,id=monitor,mode=control -rtc base=utc -no-reboot* -no-shutdown -kernel /var/lib/libvirt/boot/virtinst-vmlinuz.HzY2RZ -initrd 即使你没有指定–no-reboot: virt-install –name centos62test –disk path=/home/vms/centos62test,size=50,bus=virtio –vnc –noautoconsole –vcpus=1 –ram=512 –network bridge=virbr0,mac=52:54:00:75:80:12 –location=http://192.168.15.100/mirrors/centos/6.2/os/x86_64/ -x "ks=http://192.168.15.100/mirrors/ks/6.2/kvm/x86_64.cfg" 这似乎是一个独特的虚拟安装“问题”,因为当您使用virt-manager创build虚拟机时,–no-reboot选项不会被插入。 LC_ALL=C PATH=/sbin:/usr/sbin:/bin:/usr/bin QEMU_AUDIO_DRV=none /usr/libexec/qemu-kvm -S -M rhel6.2.0 -enable-kvm […]
我想testing一个新的有6个磁盘的服务器的configuration,在RAID 1和RAID 10configuration中configuration为2个虚拟磁盘。 组态: 6总磁盘驱动器 2个250 GB RAID 1configuration 4个2TB RAID 10configuration 目前,我将250GB镜像设置为datastore1 ,将4TB RAIDarrays设置为datastore2 。 我想安装一个客户OSto datastore1并允许它访问datastore2作为一个文件系统,这个文件系统将作为一个挂载点出现在Linux客户操作系统上。 我不打算安装任何客户操作系统到datastore2 ,我只想要该磁盘空间作为原始存储。 有没有办法可以做到这一点,或者是不正确的设置磁盘作为数据存储? 我不确定是否需要制作一个虚拟的iSCSI目标或类似的东西来做我想做的事情。 我find了这个答案,但不知道这是我的解决scheme,还是有其他的方法。
我想知道这是否可能,如果有这个概念的实现: 想象一下,我有一个1 GB RAM磁盘,一个1 TB内部硬盘驱动器和一个10 TB的NAS。 是否有可能有一个具有10 TB空间(存储在NAS)的虚拟驱动器,但保留了我的内部HD上最常访问的文件的本地副本,以及我目前在RAM上使用的另一个文件副本磁盘? 这与虚拟内存pipe理的原理相同,但相反:虚拟内存将未使用的内存部分复制到慢速设备,而此解决scheme会将正在使用的内存部分复制到快速设备。 我知道有些企业SAN通过混合使用SSD和HD来实现这一目标,但我认为这可以通过软件完成。
有没有办法创build一个虚拟机模板 ,然后我可以创build虚拟机? 我想达到的是: 使用虚拟PC创build虚拟机 在该虚拟机中安装我需要的所有程序 然后将该虚拟机作为将来创build的所有虚拟机的模板。 这可能吗? 如果是这样,请分享任何指针。
我刚刚在我的主机KVM中创build了一个存储池目录 # virsh pool-list –all Name State Autostart —————————————– guest_images_dir active yes 和信息: # virsh pool-info guest_images_dir Name: guest_images_dir UUID: 720c6735-9ca0-e7c2-18cf-396c729a512e State: running Persistent: yes Autostart: yes Capacity: 920.54 GB Allocation: 23.02 GB Available: 897.51 GB 这是XML # cat /etc/libvirt/storage/autostart/guest_images_dir.xml <pool type='dir'> <name>guest_images_dir</name> <uuid>720c6735-9ca0-e7c2-18cf-396c729a512e</uuid> <capacity>0</capacity> <allocation>0</allocation> <available>0</available> <source> </source> <target> <path>/home/virtuals/shared_dir_kvm</path> <permissions> <mode>0700</mode> <owner>-1</owner> <group>-1</group> […]
目前情况:目前我们已经有了一个运行在4GB RAM上的Win2k3 32bit操作系统。 SQL + Exchange + AD +在本服务器上运行的所有东西都需要FOREVER来启动,尤其是在邮件存储没有正确closures的情况下。 当你需要它并尽快运行时不是那么好。 我们即将订购具有以下规格的新服务器: 戴尔R610与32GB的RAM 5 * 600GB磁盘RAID5 + 1冷备用 Windows 2008SBS +高级插件(其中包括Windows 2008标准和SQL标准2008) 我们希望使用虚拟化来分离服务,但不知道如何去实现系统的最佳实施。 Win2k8 Standard的内存限制为32GB,所以我们不能在稍后阶段升级服务器内存。 我有一个Linux背景,所以Xen很吸引人。 不过,我并不特别想介绍需要更多专业技能的新系统。 在这种情况下,系统pipe理员需要精通基于Linux的系统。 Hyper-V看起来是一个不错的select,因为它有$ 0的成本,但是这仍然需要在基础上安装Windows 2008,直接安装服务。 我听说VMWare ESXi是一个成本为0美元的选项,但我没有任何经验。 我不确定这是否符合我们的要求。 我也不确定如何最好地构build文件系统 – 虚拟主机是否应该直接访问磁盘? 或者应该为该虚拟主机创build一个磁盘文件? 有任何想法吗?
我在办公室有一个“开发”的KVM服务器,在一个桥接networking设置中安装了一些KVM客户机。 对于每个KVM guest虚拟机,当guest虚拟机启动时,在节点上创build名为kvm[id].0例如kvm126.0的虚拟接口。 昨天我四处游玩,想看看如果我需要的话,我可以如何解决KVM客人的问题。 所以我尝试了route add ip_address reject没有效果,因为没有效果有route add ip_address gw 127.0.0.1 lo或ip route add blackhole ip_address/32 。 由于这是一个桥接networking设置,我得到为什么上述不起作用。 接下来尝试使用iptables; 我试过了 iptables -A INPUT -s ip_address -j DROP iptables -A FORWARD -s ip_address -j DROP 这个伎俩,我不能ping KVM的客人了。 现在的事情是,如果我是一个恶意用户,我会开始尝试其他邻居IP,直到我find一个不与另一个客户冲突,并静态分配给我的VPS。 所以我想知道的是,如果有一种方法可以阻止来自该客户的特定界面的stream量,则无论他设置了哪个IP来configuration他的客户机。