在Linux系统上,默认情况下有很多用户:守护进程,bin,sys,游戏等等。 根据我的/ etc / passwd,这些用户中的大多数都有一个shell(/ bin / sh),这对我来说似乎有点不安全。 我天真的想法会说:只给这些用户一个可以login到服务器的shell。 我的想法错了吗? 如果不是完全错误的话:我可以禁用“daemon”和“www-data”的shell而没有副作用(例如系统不会启动或Apache PHP不能执行系统调用)? 补充:我的发行版是Debian Squeeze。 感谢您的提示!
我有一个专用的服务器在1and1与软件RAID。 我相信它正在运行CentOS。 1and1的硬件组replace了第二块硬盘(sdb),然后按照这些指示重buildarrays: http://faq.1and1.com/dedicated_servers/root_server/linux_recovery/10.html 在第9步,我无法查看mdadm.conf,因为它是没有我的configuration的通用文件。 我仍然继续,因为我知道这个arrays是完全按照指示devise的。 我认为这是一个GRUB的问题? 也许我需要重新configurationmdadm.conf? 我不知道如何解决这个问题。 1and1允许我启动到一个恢复控制台,这几乎是一个现场CD。 当我从cat /proc/mdstat恢复控制台运行cat /proc/mdstat : rescue:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [faulty] md1 : active raid1 sda1[0] sdb1[1] 3911680 blocks [2/2] [UU] md3 : active raid1 sda3[1] sdb3[0] 482512192 blocks [2/2] [UU] unused devices: <none> 引导日志从启动到恢复: (特别是我注意到这个错误:assemblyMDarrays… [31mfailed(在configuration文件中找不到数组或自动)) http://pastebin.com/TcP4RFP2
我的工作站有两个磁盘(/ dev / sd [ab]),都有相似的分区。 / dev / sdb失败, cat /proc/mdstat停止显示第二个sdb分区。 我运行mdadm –fail和mdadm –remove从使用它们的arrays上的故障磁盘的所有分区中mdadm –fail ,尽pipe所有这些命令都失败 mdadm: set device faulty failed for /dev/sdb2: No such device mdadm: hot remove failed for /dev/sdb2: No such device or address 然后,我热切换了发生故障的磁盘,对新磁盘进行了分区并将分区添加到相应的arrays中。 除了一个之外,所有arrays都得到了正确的重build,因为在/ dev / md2中,失败的磁盘似乎没有正确地从arrays中移除。 由于这个原因,新的分区不断被添加为分区的备用,并且其状态保持降级。 以下是mdadm –detail /dev/md2显示的内容: [root@ldmohanr ~]# mdadm –detail /dev/md2 /dev/md2: Version : 1.1 […]
在linux服务器上(8x四核AMD 8378),我收到以下错误: [Hardware Error]: MC4_STATUS[-|CE|MiscV|-|AddrV|CECC]: 0x9c294c00001d018b [Hardware Error]: Northbridge Error (node 4): ECC error in L3 cache tag. [Hardware Error]: cache level: L3/GEN, tx: GEN, mem-tx: SNP [Hardware Error]: Machine check events logged 这在上个月发生了三次,但从未(服务器运行了三年)。 从一个快速的谷歌search,似乎这是一个严重的问题。 但是,供应商支持技术人员说: 我已经看到了这些错误很多次,除非你超频你的CPU – 或者有一个风扇故障或类似的 – 这是不太可能是一个处理器的问题。 内核更可能错误地报告错误。 所以 – 这是一个严重的错误,我应该订购新的部件(取代CPU?)或忽略它? 非常感谢。
我在JBoss 7.1.1 Final上遇到了性能下降的问题。 我写了一个简单的程序来展示这种行为。 我生成了一个10万个随机整数的数组,并对其执行冒泡sorting。 @Model public class PerformanceTest { public void proceed() { long now = System.currentTimeMillis(); int[] arr = new int[100000]; for(int i = 0; i < arr.length; i++) { arr[i] = (int) (Math.random() * 200000); } long now2 = System.currentTimeMillis(); System.out.println((now2 – now) + "ms took to generate array"); now = System.currentTimeMillis(); […]
我负责一个基于Linux的(运行Debian的)分支机构路由器,它需要一个单一的高速互联网连接(eth2),并把它变成大约20个内部networking,每个networking有一个独立的子网(192.168.1.0/24到192.168 .20.0 / 24)和一个单独的VLAN(eth0.101到eth0.120)。 我正试图限制一个内部子网上的带宽,这个内部子网一直在嚼碎更多的带宽。 做这个的最好方式是什么? 我第一次尝试在这里是奇迹般的,我在这里听到超级用户。 不幸的是,这对我恰恰相反的情况非常有用……它在客户端而不是在互联网端很有用。 我的第二次尝试是使用在http://www.topwebhosts.org/tools/traffic-control.phpfind的脚本,我修改了这样的活动部分是: tc qdisc add dev eth0.113 root handle 13: htb default 100 tc class add dev eth0.113 parent 13: classid 13:1 htb rate 3mbps tc class add dev eth0.113 parent 13: classid 13:2 htb rate 3mbps tc filter add dev eth0.113 protocol ip parent 13:0 prio 1 […]
为了提高Ubuntu Linux机器上无头用户下运行的守护进程的FD限制,我们在/etc/security/limits.conf soft nofile 10000 hard nofile 10000 我们还在/etc/pam.d/login中添加了session required pam_limits.so。 所有已注销并重新login的用户都会反映这些更改。 无论新用户开始什么新的stream程,都会获得新的FD限制。 但是对于在无头用户下运行的守护进程来说,这些变化并没有得到体现。 在无头用户下运行的守护进程可以如何反映这些变化?
我正在尝试configurationopenvpn,以便只有来自特定进程的stream量通过vpn,但是这些进程可以连接到任何地方。 我试图通过让openvpn不做任何路由configuration( –route-noexec )并让应用程序显式连接到tun接口(例如: curl –interface tun0 'http://www.ipchicken.com' : curl –interface tun0 'http://www.ipchicken.com' ),但connect()似乎超时。 为了使tun界面快乐,我还需要采取其他一些措施吗?
我试图在我的Ubuntu 12.10机器上快速评估IBM WebSphere 8.5。 我在一个名为“评估IBM WebSphere Application Server试用版”的页面上从IBM网站上下载了一个zip压缩文件, 该zip文件的描述是: 适用于Linux x86的Installation Manager 1.5.2和WebSphere Application Server Base Trial v8.5 压缩文件本身的名称是: BASETRIAL.agent.installer.linux.gtk.x86_1.5.2000.20120223_0907.zip 这是117MB。 我下载这个之后,我解压缩了这个文件。 但现在我迷失在如何开始安装。 解压后,我的目录包含以下文件: ls -altrh total 116M -rwxr-xr-x 1 shibo shibo 62K May 9 2010 userinstc -rwxr-xr-x 1 shibo shibo 62K May 9 2010 userinst -rwxr-xr-x 1 shibo shibo 62K May 9 2010 installc […]
我不确定如何解释运行WebSphere MQ(WMQ)的服务器的内存使用情况。 主要的问题是:WMQ是否随着时间的推移使用越来越多的内存(是内存泄漏),还是一切正常,Linux正在使用我们的RAM进行磁盘caching? 我们有以下的仙人掌图。 这个数据来自/ proc / meminfo。 其中目前显示以下输出。 [user@server ~]$ cat /proc/meminfo MemTotal: 32956188 kB MemFree: 3963664 kB Buffers: 1225024 kB Cached: 15611124 kB SwapCached: 34016 kB Active: 23880484 kB Inactive: 3279676 kB HighTotal: 0 kB HighFree: 0 kB LowTotal: 32956188 kB LowFree: 3963664 kB SwapTotal: 8388600 kB SwapFree: 8354584 kB Dirty: 1648 kB […]