我无法在Debian 6.0(Squeeze)服务器上更新Bash以摆脱发现的漏洞: bash –version GNU bash, version 4.1.5(1)-release (x86_64-pc-linux-gnu) apt-get update apt-get install bash Reading package lists… Done Building dependency tree Reading state information… Done bash is already the newest version. 0 upgraded, 0 newly installed, 0 to remove and 7 not upgraded. 我可以用这个服务器的Squeeze-LTS来更新Bash吗? 一个星期后,我将在另一台服务器上,所以我不会做任何其他更新。 uname -m x86_64 lsb_release -a No LSB modules are available. […]
我有一台运行Debian和sshd的服务器,如果我需要重新启动服务器,我的SSH会话在客户端挂起,直到TCP超时。 我认为这是因为当sshd被终止时,它并没有明确closures到主机的开放SSH会话。 我应该做什么使sshd首先断开每个人,然后正常终止本身? 到目前为止,我没有看到man sshd_config中与shutsown行为有关的参数。
我的“专用服务器”应该有两个网卡安装,但我只能find一个。 我的问题:还有哪些其他命令和方法可用来testing我的服务器上安装了多less个网卡 lspci | grep Ethernet 还有其他的命令/方法吗?
问题 我想在Linux上的SSD磁盘内的交换分区上启用后台 TRIM操作。 根据几篇文章,例如这个 ,内核检测到这个configuration并且自动执行丢弃操作,但是在我的testing中似乎没有工作,尽pipe使用了“discard”挂载选项来强制这个行为。 脚本 Debian Wheezy运行Linux 3.2.0 SSD磁盘:1 x 120GB OCZ Vertex 3 MI 2GB交换“普通”分区,无其他层(LVM,RAID等) 背景 以下是检查背景TRIM是否在交换分区上工作的步骤: TRIM支持 :检查SSD磁盘是否支持TRIM命令,内核将设备标记为非旋转: # hdparm -I /dev/sda | grep TRIM * Data Set Management TRIM supported (limit 1 block) * Deterministic read data after TRIM # cat /sys/block/sda/queue/rotational 0 交换填满 :挂载分区,清理所有虚拟机高速caching,并configurationLinux以积极地将vm.swappiness设置为100.然后,运行一个脚本来分配所有可用的内存,并强制内核开始交换: # swapon [–discard] /dev/sda2 # echo […]
我注意到一些错误,最近出现在/var/log/messages在我们的服务器之一(下面)。 但是,mce客户端似乎不像syslog中的解码条目那么确定错误源。 是否有某种关键用于解释MCE输出? Nov 12 04:19:19 areion kernel: [14698753.176035] Machine check events logged Nov 12 04:19:19 areion mcelog: HARDWARE ERROR. This is *NOT* a software problem! Nov 12 04:19:19 areion mcelog: Please contact your hardware vendor Nov 12 04:19:19 areion mcelog: MCE 0 Nov 12 04:19:19 areion mcelog: CPU 0 BANK 8 Nov 12 04:19:19 […]
我有一台运行VMware ESXi v4.1.0 348481的服务器。它有一个硬件RAID10和一个SATA备份驱动器。 我有一个运行的虚拟机,它具有RAID10数据存储上的主引导vmdk以及SATA备份驱动器的数据存储上的600 GB vmdk。 VM使用FreeBSD内核运行Debian linux,并使用ZFS作为备份驱动器。 编辑:该驱动器不直接连接到虚拟机。 它用作VMware数据存储,VM在SATA驱动器的数据存储上有一个vmdk。 数据存储空间不足(仅占65%) 我使用SSHlogin到服务器,发现昨天晚上备份被挂起, zfs list或zpool list都挂起。 所以我在ESXi中打开了虚拟控制台,很遗憾地看到: (da1:mpt0:0:1:0): READ(10). CDC: 28 0 19 97 3a 50 0 0 2d 0 (da1:mpt0:0:1:0): CAM status: SCSI Status Error (da1:mpt0:0:1:0): SCSI status: Check Condition (da1:mpt0:0:1:0): SCSI sense: MEDIUM ERROR info:4862ec asc:11,4 (Unrecovered read error – auto reallocate failed) […]
我正在使用backports的PostgreSQL 9.1中的debian squeeze。 木偶版本2.7.14。 不幸的是init脚本返回状态的错误退出码。 所以我写了一个自定义status命令来检测postgresql是否在运行。 service { 'postgresql': ensure => running, enable => true, hasstatus => false, hasrestart => true, status => "pg_lsclusters -h | awk 'BEGIN {rc=0} {if ($4 != \"online\") rc=3} END { exit rc }'", provider => debian, } 我的命令像一个魅力,但傀儡似乎有问题。 我总是得到notice: /Stage[main]/Postgresql/Service[postgresql]/ensure: ensure changed 'stopped' to 'running'虽然它已经在notice: /Stage[main]/Postgresql/Service[postgresql]/ensure: ensure changed 'stopped' […]
我正在尝试诊断服务器上的文件系统问题。 这已经持续了相当长的一段时间了,我已经没有什么想法可以尝试。 这是它的厚度。 服务器本身是戴尔Poweredge T310。 它有4个SAS硬盘,configuration为RAID5,并运行Citrix XenServer 5.6。 虚拟机是一个(相对)旧的Debian 5.0.6安装。 它有4个内核,4Gb的RAM。 它有3卷。 系统的10Gb容量(ext3),数据的980Gb容量(xfs)(约94%满容量)和另外200Gb容量(xfs)的数据(约13%满容量)。 现在这是奇怪的事情。 对980Gb卷的读/写访问非常慢。 如果我幸运的话,我可能会得到5Mb / s。 起初,我认为它实际上是在系统或虚拟机pipe理程序级别的磁盘访问,但是完全排除在同一台主机上的其他虚拟机运行得非常好(几百Mb / s磁盘访问)。 那么我开始瞄准这个特定的虚拟机。 我开始认为这是XFS,但是为了certificate我不打算改变980Gb硬盘上的文件系统,在那里有几年和几十亿的文件。 所以我调配了200Gb的驱动器,并做了相同的读/写testing(基本上是dd),并且获得了几百Mb / sr / w的访问权限。 所以排除了VM,硬件和文件系统的types。 在/var/log/kern.log中也有很多这样的内容。 (对不起,这很长) Sep 4 10:16:59 uriel kernel: [32571790.564689] httpd: page allocation failure. order:5, mode:0x4020 Sep 4 10:16:59 uriel kernel: [32571790.564693] Pid: 7318, comm: httpd Not tainted […]
最近我遇到了Ubuntu Server安装。 在安装过程中,它问我是否允许从降级的RAIDarrays引导系统(可能是因为我将系统安装到了RAID1 / dev / md0设备上)。 对于只需联机的无人值守服务器,无论其RAIDarrays是否降级(只要没有完全失效),这都是非常有用的select。 快速查找后 ,我发现它可以通过读取/etc/initramfs-tools/conf.d/mdadmconfiguration文件(BOOT_DEGRADED = true选项),或通过读取内核引导行参数(bootdegraded = true)来工作。 问题:是否有类似的方法(一种用于降级arrays的引导系统)可以用于Debian? 我不确定这个确切的方法是否适用,甚至是否具有这个特定的function。 我问这是因为我曾经在某些系统中有RAID5arrays,并且在不正常的关机时,它不能启动,直到我手动“修复”arrays,这被certificate是主要的PITA,因为服务器在远程位置是无人看pipe的,没有UPS,并且发生了电力故障。 所以,我问,所以我可以在将来防止这种问题。
我正在考虑使用Linux上的ZFS从ext3迁移到ZFS,以便在我的Debian Linux主机上进行数据存储。 我真正想要的ZFS的一个杀手function是它的数据完整性保证。 随着我的存储需求的增加,轻松增长存储的能力也是我期待的。 不过,我也在同一台主机上运行了一些虚拟机。 (虽然通常,在我的情况下,一次只有一个虚拟机在主机上运行。) 考虑到ZFS的数据校验和写时复制行为,再加上VM磁盘镜像是比较庞大的文件(我的主VM的磁盘映像文件当前位于31 GB), VM guest虚拟机内部的性能影响如何迁移? 我可以采取哪些措施来减less可能对性能造成的负面影响? 如果有必要的话,我可以在虚拟机磁盘映像上使用较less的数据完整性保证(我不会在任何虚拟机内部做任何真正关键的操作),并且可以很容易地将它们与文件系统的其余部分分开,但是如果我不不必(甚至有select地)closures大多数让我想要迁移到不同文件系统的function。 硬件对于工作站级系统来说非常有用,但对于高端服务器(32GB RAM,很less使用10GB以上,6核3.3GHz CPU,目前2.6TB可用)磁盘空间根据df和共约1.1 TB的免费;迁移到ZFS可能会增加一些更多的可用空间 ),我不打算运行重复数据删除(因为开启重复数据删除就不会增加太多我的情况) 。 计划是从一个JBODconfiguration开始的(显然具有良好的备份),但是如果条件允许的话,我可能会最终转向双向镜像设置。