我们正在build立我们的SQL服务器,该服务器使用HP P2000在2个RAID 10(8个磁盘)arrays和RAID 1镜像(2个磁盘)的共享存储上跨2个HP DL380p服务器集群。 我们创build了3个LUN(LUN10,20,30),并创build了5个独立的VHDx文件。 1. OS / SQL(LUN10)2. MDF(LUN10)3. LDF(LUN 20)4. TempDB(LUN30) 我唯一担心的是将操作系统和SQL安装和数据库文件放在同一个LUN上? 这是不是推荐的东西,或者真的没有什么区别吗? 它们是单独的VHDx文件[OS / SQL安装VHD]和[MDF文件VHD],但仍位于同一个LUN上,并具有相同的主轴。 你是否build议将操作系统移到自己完全独立的一组磁盘上? 我猜测(操作系统和SQL二进制安装VHDx)几乎没有任何活动certificate它需要自己的主轴? 他们可以共享与MDF文件相同的主轴吗? 谢谢。
我是一个新手networkingpipe理员,负责为一个小型非营利性的志愿者build立一个非常简单的文件共享结构。 我想testing这个内部,因为我以前只使用Windows系统,这将是一个运行Samba的Ubuntu服务器(为了方便在办公室的Mac与文件共享,以及Windows Server许可的预算问题)。 我有一个Win7的VirtualBox主机在192.168.1.3,运行在网桥模式下的Ubuntu服务器10.4在192.168.1.6。 当我尝试从主机连接到任何Samba共享时,我得到一个标准的Windows“无法访问”错误消息。 主机可以ping客户机,反之亦然。 sudo ufw disable没有改变这一点。 sudo iptables –list是空白的(也就是说,在所有三条链上没有规则的默认ACCEPT) 我下一个故障排除步骤是什么?
我有一个Debian主机,它有几个分配的IP和KVM与一个使用桥接networking的Debian客人。 客人完全无法到达networking,包括局域网甚至主机。 从guest虚拟机ping主机会产生Destination Host Unreachable错误。 如果我尝试从主机ping客人,我得到主机本身而不是来自客人的响应。 主机的/ etc / network / interfaces # The loopback network interface auto lo auto eth1 iface lo inet loopback allow-hotplug eth1 iface eth1 inet static address 108.xxx.xxx.130 netmask 255.255.255.248 network 108.xxx.xxx.128 broadcast 108.xxx.xxx.135 gateway 108.xxx.xxx.129 dns-nameservers 127.0.0.1 208.167.225.22 64.237.42.82 dns-domain example.com # dns-* options are implemented by the resolvconf […]
我对hyperv相当陌生,而且在为我的虚拟机设置networking访问时遇到问题。 主机有两个物理networking端口,我已经分配一个到外部虚拟交换机。 然后我安装了两个CentOS虚拟机,通过外部交换机连接。 我遇到的问题是,一次只有一个虚拟机能够连接到外部networking。 VMEL由itslef工作正常 VM2本身工作正常 VM1和VM2在一起=第一个获得IP地址的竞争条件获胜。 我可以使用内部交换机与虚拟机协同工作,但IP地址只能从主机(它们是内部分配的IP)才可见,而我不能从主机外部访问虚拟机。 任何想法或推荐任何人? 非常感谢,Vackar
自从我用新的Arch Linux模板升级到LXC 1.0后,当我创build一个新的实例时,我调用了一个双tty: lxc-console –name <container> 这是输出: Arch Linux 3.19.2-1-ARCH (lxc/tty1) arch1234 login: Arch Linux 3.19.2-1-ARCH (pts/0) arch1234 login: 当我input用户名和密码的时候,两个tty都是相互通过的。 lxc容器configurationconfiguration如下: #用于创build此容器的模板:/ usr / share / lxc / templates / lxc-archlinux #传递给模板的参数:-P vim,openssh #对于其他configuration选项,请看lxc.container.conf(5) lxc.utsname = arch1234 lxc.autodev = 1 lxc.tty = 1 lxc.pts = 1024 lxc.network.type = veth lxc.network.link = lxcbr0 lxc.network.flags =向上 lxc.rootfs […]
我的团队最近一直负责改善公司的虚拟化基础架构,我们正在研究的一件事是加速迁移。 我们仅在所有VM主机上使用本地存储。 一个挑战是,我们有成千上万的主机运行CentOS,KVM,libvirt和qemu的不同版本(悲伤的面孔)。 所有客人都是CentOS。 我们运行的最低版本是: CentOS 5.6 内核2.6.18 libvirt 1.0.0 qemu 1.1.0 目前用于迁移的工具本质上是使用netcat来发送磁盘镜像文件,并运行相应的virsh命令,将guest虚拟机置于新主机上(除了一些configurationpipe理的调整之外)。 我们正在设法通过任何必要的创造性手段来减less客人停机时间和/或加速转移本身。 我们已经花了好几天的时间从互联网的各个angular落大肆宣传信息,但是好奇的是,Serverfault的好人可以分享一些知识。 如果需要的话,我们可以暂时将共享存储用作中间人,但除了更换虚拟机pipe理程序或为所有主机实施共享存储之外,任何事情都是公平的游戏。 我们需要探索一些当前的工作思路: 快照guest虚拟机,将基本映像复制到新主机,closuresguest虚拟机,将快照复制到新主机,在新主机上提交快照,删除快照,启动 暂时以某种方式探索使用共享存储作为中间人。 不确定在这一点上的细节,使用像临时安装glusterfs股份是一个想法。 在VM处于活动状态时复制磁盘映像文件,closuresguest虚拟机,然后使用rsync复制已更改的位。 我们很乐意提供不同的方法/工具,只支持kvm / qemu / libvirt的新版本,但希望能够以最好的方式移动旧的东西。 希望有些人可以分享他们所做的一些事例! 谢谢。
我正在尝试从Azure中获取包含广义Windows安装的VHD,并将映像部署到我们的某台服务器上的物理磁盘上。 这样做最好的方法是什么? 我可以使用ImageX来处理这种情况吗? 我知道它可以处理WIM图像,但不太了解VHD。 我尝试过使用Vhd2disk,但无济于事,因为它没有在VHD上看到任何卷,因为我可以安装和浏览VHD。
[root@GFVM4 ~]# hostname GFVM4 [root@GFVM4 ~]# [root@GFVM4 ~]# [root@GFVM4 ~]# getent hosts gfvm4 192.168.122.151 GFVM4 [root@GFVM4 ~]# getent hosts GFVM4 fe80::5054:ff:feac:787 GFVM4 [root@GFVM4 ~]# [root@GFVM4 ~]# [root@GFVM4 ~]# [root@GFVM4 ~]# ifconfig ens5 ens5: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 192.168.122.151 netmask 255.255.255.0 broadcast 192.168.122.255 inet6 fe80::5054:ff:feac:787 prefixlen 64 scopeid 0x20<link> ether 52:54:00:ac:07:87 txqueuelen 1000 (Ethernet) RX packets […]
在我的机器上(debian jessie) ganeti-metad监听所有的接口: # netstat -lepn | grep metad tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 0 66528 32831/ganeti-metad unix 2 [ ACC ] STREAM LISTENING 383 1/init /run/lvm/lvmetad.socket unix 2 [ ACC ] STREAM LISTENING 66525 32831/ganeti-metad /var/run/ganeti/socket/ganeti-metad 目前我正在使用防火墙来限制访问,但我更喜欢更改界面th在ganeti-metad有一个参数提供地址,但是它也表示默认是基于集群configuration: # /usr/sbin/ganeti-metad –help ganeti-metad (ganeti) version v2.12.4 Usage: ganeti-metad [OPTION…] -b ADDR –bind=ADDR Bind address (default […]
我刚刚买了Proliant DL360 G5的学习和testing。 这是一台旧机器,但对我来说已经足够了。 当我在HP的支持页面上查看受支持的操作系统时,我注意到支持的最新版本的ESXI是5.x. 我主要是想用我的testing和ESXI 5.x CentOS7,centos 7是一个新的操作系统,所以我的问题是,如果我安装ESXI 5.x到我的服务器,并使用centos7,是否产生了一个问题? 或者哪一个更好? 使用ESXI 6(不支持的硬件,支持的操作系统) 使用ESXI 5(支持的硬件,不受支持的操作系统) 我尝试了他们两个,他们为我工作,可能这两个解决scheme在大多数情况下工作正常,但我想问这个问题来学习一些东西。 可能会有性能问题。