Articles of linux

将主机名称推送到没有DHCP的DNS服务器

考虑到完全没有运气,我已经search了与这个问题有关的任何条款,这可能甚至是不可能的,但是: 有没有一个合理的标准方式来设置一台机器上的主机名,并将该主机名“推”到一个基于BIND的DNS服务器而不是其他方式? 背景: DHCP在这个特定的环境中被禁止,所以我需要想出一种快速部署系统的替代方法。 我已经接近使用Puppet和Web UI来自动化填充主机名,但是从客户端的推送将更容易自动化(因为那时我只需要触摸安装程序中的一个对话框)。 所有的客户端系统都是基于Linux的。

CRON工作正在运行,但没有任何文件的迹象

这是一个奇怪的,我知道答案将是简单的,我已经看了…我inheritance了Linux服务器的运行旧版本的Ubuntu 10.04的责任,它有一个备份scrip每小时运行,但我可以找不到它从哪里跑。 在validation日志中,我看到每小时一个条目与备份被激发的时间完全一致,表明这是一个cron工作: "pam_unix(cron:session): session opened for user root" 它不是SSH上的远程命令,因为它之前没有SSH会话条目。 我已经运行以下命令列出所有用户的cron作业,这对任何人都不会产生任何结果: "for user in $(cut -f1 -d: /etc/passwd); do crontab -u $user -l; done" 这不是一个非常…还有什么? 任何build议,我可能看下一个? 我想可能有一个GUI应用程序和auth日志条目是误导。 提前致谢

使用socat模拟tcp断开连接

我正尝试使用socat命令来模拟远程主机上我的客户端服务和EMS代理进程之间的tcp断开连接。 我正在运行这个socat命令 socat TCP-LISTEN:8123,fork TCP:远程主机名称:端口 我在服务器上运行这个命令,比如server1 ,而且我正在configuration我的客户端服务来连接到server1:8123 ,这使得客户端能够连接到实际的EMS代理。 然而,当我想模拟断开连接时,我正在杀死socat进程(我通过ps aux | grep socatfind了pid) – 但是这似乎并没有消除连接 – 我可以看到客户端仍然可以与ems经纪人。 (为什么socool在这个阶段没有被杀害?) 但是 – 如果我现在重新启动我的客户端,然后连接到经纪人失败(因为现在socat过程是真的死了)。 我不知道这里发生了什么 – 我怎样才能确保社会进程绝对被杀害?

ubuntu linux:重启后networkingconfiguration丢失

我有一个从virtualbox迁移到esxi的linux ubuntu 12.04机器。 我可以使用ifconfig,route add和/etc/resolv.confconfigurationnetworking,并且一切正常。 另外,我用正确的networkconfig编辑了/ etc / network / interfaces文件。 但是,当我重新启动机器的IP地址仍然是原来的。 但是networking掩码变成了255.255.255.255,而网关和名字服务器丢失了。 当我检查时 我的/ etc / network / interfaces文件如下所示: iface eth0 inet static address 10.11.1.5 netmask 255.255.254.0 gateway 10.11.1.254 dns-search company.be dns-nameservers 12.45.1.1 12.45.2.1 任何想法可能是什么原因?

vServer Debian Linux虚拟主机问题

我有几天的虚拟主机设置有问题。 我的服务器是debain linux的虚拟服务器,我试图添加两个新的域,将被redirect到他们自己的子文件夹。 Domain1.com – > / var / www / domain1 Domain2.com – > / var / www / domain2 设置工作正常,但域不redirect到子文件夹,但服务器根目录。 所以,如果我打开“domain1.com”,我将被redirect到“domain1.com/mail”,这是一个roundcube安装。 以下是我如何做的设置: 在/ etc / apache2的/网站可用/ DOMAIN1 <VirtualHost domain1.com> ServerAdmin webmaster@localhost ServerAlias domain1.com *.domain1.com DocumentRoot /var/www/domain1 </VirtualHost> / etc / hosts文件 127.0.0.1 localhost.localdomain localhost domain1.com www.domain1.com 我只是不明白为什么它不被redirect到子文件夹…有人可以告诉我我做错了什么?

当select的时钟源是Hyper V时,Linux内核抱怨TSC

我们在Windows Server 2012上运行HyperV上的RHEL 6盒。在我们的RHEL盒子上,我在/ var / log / messages中看到这个错误 kernel: Clocksource tsc unstable (delta = -62519781 ns). Enable clocksource failover by adding clocksource_failover kernel parameter. 当前的时钟源是 – [root@server ~]# cat /sys/devices/system/clocksource/clocksource0/current_clocksource hyperv_clocksource 可用的时钟源是 – [root@server ~]# cat /sys/devices/system/clocksource/clocksource0/available_clocksource hyperv_clocksource tsc acpi_pm jiffies 我的问题是 – 1.当时钟源是HyperV时,为什么服务器抱怨tsc? 2.我应该select哪个时钟源作为故障切换? PS – 我知道红帽解决scheme – https://access.redhat.com/site/solutions/434883 。 我只是想知道为什么会发生这种情况? 对于那些没有RedHat Access,解决scheme如下 […]

将LVM VolumeGroup / Volume标识符转换为设备名称,反之亦然

问题(S): 将LVM VolumeGroup / Volume标识符(例如system/var )转换为设备名称(例如/dev/mapper/system-var或/dev/system/var ),反之亦然? 使用/dev/VolumeGroup/Volume还是有安全/dev/VolumeGroup/Volume (如在/dev/mapper/VolumeGroup-Volume表单中,特殊处理破折号)? 使用/dev/mapper/VolumeGroup-Volume和/dev/VolumeGroup/Volume什么本质区别? Pro / Con为每个表单? 背景: 我想自动创buildLVM快照以备用途。 configuration应该只包含文件系统中的源path(对于这个例子/var )。 parsing/etc/mtab产生装载在该path上的设备: # grep /var /etc/mtab /dev/mapper/system-var /var ext4 rw 0 0 现在我可以使用lvs来查找VolumeGroup和Volume: # lvs –noheadings /dev/mapper/system-var var system -wi-ao 18,62g 创build快照: # lvcreate -s -n var-snapshot -pr -l10%ORIGIN system/var 现在我需要设备名称来装载快照。

ntpdate失败“名称或服务未知”

我有一个基于Linux的Linux(Linux版本2.6.32.11-svn70860),它不能使用ntp设置它的时间。 以前的系统pipe理员早已不在了,所以我不知道这个问题刚刚开始发生,还是多年来一直如此。 我也在联系制造商,但是对他们的技术支持没有太大的信心 – 这就是我来到这里的原因! 在/var/log/daemon.log我看到这样的行: Jan 13 09:28:37 ntpdate[16529]: can't find host pool.ntp.org Jan 13 09:28:37 ntpdate[16529]: can't find host time.windows.com Jan 13 09:28:37 ntpdate[16529]: can't find host pool.ntp.org Jan 13 09:28:37 ntpdate[16529]: no servers can be used, exiting 所以我开始调查ntpdate。 如果我执行 ntpdate pool.ntp.org 它回应 Error : Name or service not known 16 Jan 09:16:38 […]

主机和来宾之间的Linux KVM磁盘caching平衡

假设您有一台运行多个KVM客户端的基本服务器。 现在就磁盘I / Ocaching而言,似乎基本服务器会将I / Ocaching在其内存中,但是访客是否也会在内存池中caching相同的I / O呢? 如果是这样,如果磁盘内容被caching两次,这不会浪费内存吗? 如果是这种情况,那么调整这种行为的好方法是什么(例如,caching基本服务器的所有内容,或者从基础caching任何内容,并且仅仅从客户端caching)? 我能想到的唯一方法是为客户分配较less的内存,通常情况下,将guest虚拟机中的swappiness参数设置为0(所以进程内存不会被换出,而不是磁盘caching),所以没有在guest虚拟机中可用于caching的额外内存。 这会强制所有caching在基本服务器中发生。 或者,这是一个由KVM自动解决的问题吗?

mdadm常量磁盘I / O

我有一个有固定磁盘I / O的mdadm数组。 我知道这是数组BC我的服务器显示哪些特定的驱动器有活动。 根据iotop有一个3-6 Mbps的恒定磁盘写入,但是,列表中没有相应的进程。 什么可能导致这个? 它已经build成,所以它不是从计算平价或任何东西。