放弃 这确实是这个线程的延续。 由于目标已经慢慢转移,所以我开了一个新的问题,所以我认为开新帖是件好事。 如果需要,我会合并回去。 build立 带有B140i软驱控制器的HP DL160g9服务器 4 LFF 7.2K RAID-5 Centos 7.2上有来自centos virt sig的kvm和qemu。 规格与以前的post不变。 所有的虚拟机存储在服务器上都是本地的 所有NIC和提供的VHDD都通过virtio(virt-scsi)传递,caching是none,io是本地的。 所有虚拟机都有2个VNICS:一个暴露在局域网内,一个内部到服务器(默认的libvirt NATnetworking) 经过testing的系统 linux主机(作为参考) 本地linux虚拟机 本地Win8.1和Win10虚拟机(64位) 远程win10 64bit专业工作站 通过virtualbox在这样的WS上运行的远程linux虚拟机 通过virtualbox运行在这样的WS上的远程win8.1 64bit专业版VM 经过testing的存储types 为了理解为什么Win10 / 8.1 pro 64bit在KVM下非常糟糕,我们尝试了一些testing。 磁盘性能衡量: iozone -i 0 -i 8 -t 1 -s 4m 当然,testing是从目标存储设备的文件夹中运行的。 以下不同的configuration已经过testing: 准备一个LVM思考卷作为virtio scsi驱动程序传递给linux和windows VM。 在其上运行iozone:testing本地linux和windows虚拟机。 对虚拟和物理LAN上提供的iscsi目标使用与块设备相同的LVM密集卷。 这次虚拟机启动了,我们已经从正在运行的虚拟机中手工添加了iscsi目标,而不通过kvm / libvirt。 […]
我使用的是7.2, 来自centos 7.2的版本是1.0.1, 我安装了1.0.2表格源码, 然后查看版本,但它仍然是1.0.1。 如果我想使用1.0.2,我应该怎么做? [root@i001 ~]# openssl version -a OpenSSL 1.0.1e-fips 11 Feb 2013 built on: Tue Mar 1 15:07:53 UTC 2016 platform: linux-x86_64 options: bn(64,64) md2(int) rc4(16x,int) des(idx,cisc,16,int) idea(int) blowfish(idx) compiler: gcc -fPIC -DOPENSSL_PIC -DZLIB -DOPENSSL_THREADS -D_REENTRANT -DDSO_DLFCN -DHAVE_DLFCN_H -DKRB5_MIT -m64 -DL_ENDIAN -DTERMIO -Wall -O2 -g -pipe -Wall -Wp,-D_FORTIFY_SOURCE=2 -fexceptions -fstack-protector-strong –param=ssp-buffer-size=4 […]
我的备份服务器(运行Arch Linux)可以通过带外电源控制器(HP ILO)使用简单的ssh命令进行远程开机。 几个客户端将同时备份,每个将需要不同的时间来完成,这意味着我不能简单地告诉备份脚本closures服务器,因为它会对仍在工作的客户端产生负面影响。 我希望服务器在最后一次备份完成10分钟后closures(比如说)。 那里有什么可以做的吗? 如果不是的话,我的想法就是让每个客户端只要保持一个特定的用户“keep_alive”,只要他们需要服务器就打开一个ssh会话,然后让服务器每10分钟轮询一次,看看用户“ keep_alive“已在最近10分钟内login,如果没有,则自行closures。 我已经使用python编写了这个想法,但是已经可靠和经过testing的东西当然会好得多…
我正在运行一些自动脚本。 对于某些任务,我有时需要一个异想天开的背景“服务”来运行。 例如,我想设置一个SSH隧道,运行testing,然后删除隧道。 ATM我使用一些冗长的代码: #!/usr/bin/env bash function automated_task(){ socksProxyTimeout=120 ssh -A -D 9999 some_server "sleep $socksProxyTimeout; " & sockProxyPid=$! sleep 3 function cleanUp(){ echo shutting down background processes… kill -9 $sockProxyPid || true cd ../../ } trap 'cleanUp' EXIT run_selenium_with_proxy } automated_task 我不喜欢这个解决scheme,因为我认为只有在整个脚本退出时才会调用cleanup,而不仅仅是“automated_task”。 我真的希望尽可能使本地代码。 我真正想要做的只是指定后台进程只在前台进程仍在运行的情况下运行。
我想使用tmpwatch来定期清除在我们的/ tmp目录中build立的旧的未使用的文件。 我宁愿使用默认的tmpwatch设置,只有在最近10天内没有访问 / tmp的文件时,它们才会被删除。 我不想吹掉任何可能被使用的文件。 但是,在这个特定的服务器上,我们使用ClamAV来每晚扫描服务器上的各个目录 – 包括/ tmp文件夹。 这会重置文件上次访问的时间,并防止tmpwatch将其清除。 一种解决scheme是设置tmpwatch以小于24小时的间隔运行。 不过,我不希望这样做,因为1. <24小时窗口非常短,文件仍然可以使用,而2. / tmp是黑客常用的登陆地。 在ClamAV有机会抓到并通知我们之前,我不想吹走黑客脚本或任何被黑客攻击的证据。 另一个解决scheme是根据最后修改的时间戳清除文件,但是我们又遇到了文件仍在使用中被删除的问题(例如/tmp/mysql.sock)。 任何想法解决或解决这个问题?
我有类似的问题Linux内核不通过多播UDP数据包只广播而不是多播,没有我已经尝试了帮助。 我在192.168.0.1上有一个设备,它将直接连接到eth1(192.168.0.2)的广播UDP数据包喷出。 eth0是我真正的networking。 ifconfig告诉我广播地址,正如所料,是192.168.255.255 $ sudo ifconfig eth0 Link encap:Ethernet HWaddr 54:04:a6:64:b5:a6 inet addr:172.16.128.1 Bcast:172.16.255.255 Mask:255.255.0.0 inet6 addr: fe80::5604:a6ff:fe64:b5a6/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:1526809 errors:0 dropped:0 overruns:0 frame:0 TX packets:986480 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:807179430 (807.1 MB) TX bytes:747692150 (747.6 MB) eth1 Link encap:Ethernet HWaddr 00:50:b6:15:6e:9a inet addr:192.168.0.2 […]
您好,感谢您提前阅读这个问题。 免责声明:在pipe理服务器方面,我还是一个新手。 我运行的是Amazon EC2服务器(运行Amazon Linux),我试图通过SSH安装darkstat(一个stream量监控器 – https://unix4lyfe.org/darkstat ),但遇到了困难。 不幸的是, sudo yum install darkstat不起作用(显然darkstat不是Amazon的存储库的一部分)。 我尝试通过以下步骤(在darkstat网站上推荐)手动安装darkstat: 首先,我安装了前提条件: sudo yum groupinstall "Development Tools" sudo yum install libpcap-devel 然后我开始安装darkstat的过程: cd /usr/src (which could be the wrong location for all I know) wget https://unix4lyfe.org/darkstat/darkstat-3.0.719.tar.bz2 tar xjvf darkstat-3.0.719.tar.bz2 cd darkstat-3.0.719 ./configure make 根据黑暗指南,我应该能够input“darkstat -i eth0”(当然没有引号),魔法应该开始。 不幸的是,我收到了一个可怕的“bash:darkstat:command not found”消息,暗示darkstat未能安装。 任何想法,我想在尝试安装过程中出错? 在安装过程中我没有注意到任何明显的错误 – […]
我已经在我的服务器上build立了一个Linux容器。 我现在的问题是,我无法从我的笔记本电脑ping我的Linux容器,但我可以pingpipe理程序。 我创build了LXC使用: lxc-create -n tomcat1 -t ubuntu 然后启动它。 我没有设置任何IP或任何东西,就像它自己做了一个不是我的另一个Cnetworking。 这可能是问题吗? 所有的帮助表示赞赏。
我有通过eth0连接到互联网的machineA。 另一方面,MachineB通过网格连接到machineA,并通过machineA连接到互联网。 我想优先考虑来自机器B的stream量。 现在,只要machineB的上传速率在两者竞争带宽的时候就受到限制。 我怀疑问题是用于ifb0的filter,我用它来形成传入的stream量。 该行: tc filter add dev ifb0 parent 1: prio 1 protocol ip handle 1 fw flowid 1:10似乎不工作,所有数据包通过默认stream程,而不是1:10。 我仔细检查了iptables,它正确地标记数据包。 这是我目前的脚本: #!/bin/sh -x # Bandwidth of home connection MAX_BW=10 #in Mbits MAX_BW_GUEST=10 MIN_GUEST_BW=1 #minimum guaranteed guest bandwidth in Mbits # Interface facing the Internet EXTDEV=eth0 # Clear old queuing disciplines (qdisc) on […]
我需要添加一个新的路线10.10.10.0,现在我有这个: # route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 xx.xxx.xxx.1 0.0.0.0 UG 0 0 0 eth1 10.10.10.0 0.0.0.0 255.255.255.0 U 0 0 0 br0 yyy.yyy.yyy.0 0.0.0.0 255.255.255.0 U 0 0 0 eth1 zz.zzz.zzz.104 0.0.0.0 255.255.255.248 U 0 0 0 eth2 192.168.1.0 0.0.0.0 255.255.255.0 U 0 0 0 […]