我正在进行一篇论文研究项目,而且我正在弄清楚如何让一个网卡产生几个“网桥”接口,以便在本地networking上可以看到每个KVM虚拟机。 我对KVM很陌生,现在还在探索它的function。 以下是我正在尝试的场景(在CentOS / RHEL 6系统上): Linux KVM主机有一个NIC( eth0 )连接到交换机。 创build多个“桥梁”或从eth0衍生而来的等效接口,为每个虚拟机提供一个唯一的IP。 这样每个虚拟机就可以和networking上的其他主机进行通信,networking上的其他主机也可以和虚拟机进行通信。 重要提示:我希望KVM主机上的iptables能够操纵/控制/限制在这些“网桥”接口上发送的stream量。 我想创build至less三个虚拟机,每个使用自己独特的“桥”接口。 我之前已经做了一个关于eth0的br0接口,但不幸的是,我无法添加更多的东西。 看来您只能将1个接口桥接到NIC。 我想桥接一对一。 tap设备能做到这一点? 如果是的话,它将如何build立? 实际上,我试图复制在Windows上使用VirtualBox轻松创build的内容,每个虚拟机都有一个“桥接”接口,并且可以在networking上运行。 我想用Linux KVM来做到这一点。 谢谢 编辑 :为了更具描述性,我想要实现的东西看起来像这样: 这可以在这个页面上find: http : //en.gentoo-wiki.com/wiki/KVM#Networking_2 HOST +—————+ | | KVM GUEST1 | | +————–+ | +——+ | | | LAN —+— eth0 | +–+—+—- nic0 | KVM GUEST2 | | tap0—-+ […]
我有两个sites-enabled ,与server_name如下所示: server_name www.mysite.com mysite.com 和 server_name dev.mysite.com 问题:当我通过IP地址访问网站时,通过查看访问/错误日志,看起来nginx是在dev.mysite.com的root下dev.mysite.com 。 nginx如何决定哪个服务? 当我们使用它的IP地址访问网站时,我们是否可以强制它发送www.mysite.com的root ? CONF server { listen 80; server_name www.mysite.com mysite.com; access_log /var/log/nginx/access.log; error_log /var/log/nginx/error.log; root /var/www/mysite/public; index index.php index.html; location / { try_files $uri $uri/ /index.php?$args ; } location ~ \.php$ { fastcgi_pass unix:/var/run/php5-fpm.sock; fastcgi_index index.php; include fastcgi_params; fastcgi_read_timeout 300; } }
Apache只能使用50GB,所以如果我的网站超过这个数量,服务器崩溃。 这台虚拟机有200GB的分配给它。 但是我没有正确设置音量。 我怎样才能把lv_home的一些空间分配给lv_root? # df -h /dev/mapper/vg_nastgweblls01-lv_root 50G 5.0G 42G 11% / tmpfs 2.9G 0 2.9G 0% /dev/shm /dev/sda1 485M 109M 352M 24% /boot /dev/mapper/vg_nastgweblls01-lv_home 142G 188M 135G 1% /home
我有一个安装在磁盘A(raid1)上的文件夹(主要是postfix用户mailboxes-homedirs),我想将它从磁盘A移动到磁盘B(也是raid1)。 目前它是这样的: / h1(文件夹)/ md120(diskA) 而且我要: / h1(文件夹)/ md121(diskB) 我应该只是卸载,然后挂载到另一个磁盘? 更新1 你好,我们又见面了! 谢谢你们所有的答案。 我的问题似乎是错的。 适当的将是 如何正确更改文件夹的挂载点? 所以我把/ h1挂载到/ md120,我想把挂载点改为/ md121。 更新2安装-l fstab不包含安装。 /dev/md121 on /home2 /dev/md125 on /h1 我的想法是在home2下移动h1 ,所以完整的path将是/home2/h1 ,它将挂载到/dev/121并且/dev/md125将被“移除”。 问题是, h1包含用户homedirs(邮箱),所以我想只是在删除后。
我正在运行的Ubuntu 12.04,我设法跺脚我的/etc/resolv.conf文件。 我相信这是我得到的原因 ping: unknown host www.google.com 它说resolv.conf是自动生成的,但我不知道如何重新生成这个文件恢复到以前的默认设置。 我检查了很多论坛和man文件,我被卡住了。 感谢任何帮助。
我有一个使用8kb块单元的PCIe SSD卡。 它支持“虚拟控制器”,可以将这个驱动器分成两半,创build带有8kb条带大小的LVM RAID0。 最重要的是,我安装了一个使用8kb块大小的文件系统。 我的应用程序写入8kb的数据块。 每个添加的层是否有空间开销,导致这个8kb块“alignment”转移,并最终将被写入SSD的原始数据(明显?)更大? 如果我的应用程序写入8kb的数据,那么FS会写8kb +它的元数据,然后转换成8kb + fs元数据+ lvm元数据,最终到达8.5kb,并将所有的alignmentclosures?
大家,我连接两台1000Mbps的网卡。 其中一个(A)运行Fedora 8,另一个(B)运行Windows7。 我用Ixchariottesting它们之间的带宽,它显示大约10Mbps。 如果A和B都运行Windows7,我再次运行Ixchariot,它显示大约1000Mbps。 我从B传输文件到A(Fedora 8),速度约为10Mbps。 为什么两个testing下的带宽不同? 以下是来自ifconfig和ethtool的输出: [root@Dom1 ~]# ifconfig eth0 Link encap:Ethernet HWaddr 00:24:1D:50:B9:C0 inet addr:192.168.1.101 Bcast:192.168.1.255 Mask:255.255.255.0 inet6 addr: fe80::224:1dff:fe50:b9c0/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:290214 errors:0 dropped:889731948 overruns:0 frame:0 TX packets:579263 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:19165638 (18.2 MiB) TX bytes:875177493 (834.6 MiB) Interrupt:17 Base […]
我需要将本地服务器上的目录传输到远程服务器上完全相同位置的远程服务器。 在目录中,有很多不同的用户参与,我想保留这些。 我必须使用什么命令,Rsync是最聪明的select。 作为参考,目录是/home/minecraft/multicraft/servers/
什么是从文件中删除重复的IP的最好方法 我使用这个命令: sort file | uniq 但我不确定这是否是最好的方法,也许我错过了什么? 备注:我的文件包含两个字段 文件的例子 172.17.200.1 3.3.3.3 172.17.200.1 3.3.3.3 255.255.255.0 255.255.255.111 255.255.255.0 255.255.255.111 172.17.200.2 3.3.3.4 255.255.255.0 255.255.255.111 172.17.200.3 3.3.3.5 255.255.255.0 255.255.255.111 172.17.200.4 3.3.3.7 255.255.255.0 255.255.255.111 172.17.200.5 3.3.3.8 255.255.255.0 255.255.255.111 255.255.255.0 255.255.255.111 172.17.200.1 3.3.3.3 255.255.255.0 255.255.255.111 172.17.200.2 3.3.3.4 255.255.255.0 255.255.255.111 172.17.200.3 3.3.3.5 255.255.255.0 255.255.255.111 172.17.200.4 3.3.3.7 255.255.255.0 255.255.255.111 172.17.200.5 3.3.3.8 255.255.255.0 255.255.255.111 […]
问题: 我负责一个包含44个节点的Hadoop集群。 我们有1.5TB的WD绿色驱动器(不知道)负载循环计数的问题。 这些磁盘工作正常,但随着他们变老,他们显示越来越多的坏块。 重写这些坏块有一段时间,但他们重新出现在不同的地方。 由于大多数这些磁盘只用于Hadoop datanodes,我们没有预算来取代他们所有我正在寻找一个战略 不要疯狂维护集群,几乎每天都会出现磁盘错误和相关的文件系统问题。 我目前的习惯是: 停止Hadoop服务,卸载磁盘,使用dmesg输出和smartctl定位坏块,并用hdparm –write-sector重写这些坏块。 在磁盘上运行fsck -f -y并重新挂载它。 保持系统稳定。 Hadoop处理磁盘错误(减less3倍),但我宁愿不想冒损坏的文件系统的风险。 我做了什么? 目前我已经改变了mount选项: erros=continue,noatime但是由于日志错误erros=continue,noatime我得到了occosial的只读remount。 然后我试着禁用日志: tune2fs -O ^has_journal这避免只读tune2fs -O ^has_journal但似乎破坏文件系统(这是有道理的,没有日记) 现在我正在考虑切换到 tune2fs -o journal_data_writeback并使用data=writeback,nobh,barrier=0 但是我不确定这是否重新引入了只读重新安装。 所以,我想避免只读重新安装,希望维护稳定的文件系统元数据,但不关心数据中的错误(Hadoop负责这一点)。 速度也不应该受到影响。 我有什么select? 我知道,这可能是任何系统pipe理员的噩梦故事。 操作系统分区挂载完整日记,我不会去testing生产数据。 这是严格的Hadoop数据节点/任务跟踪器硬盘。