Articles of linux

Centos是否合法?

我试图找出如果centos是合法的(或者简单的灰色)。 这是什么让我想知道: 他们似乎非常痛苦,更不用说他们是基于redhat的 在常见问题中,他们提到了使用redhat商标的政策,但链接不再存在。 安装时不难find很多的红帽代码。 我不再为linux世界感到烦恼,但是我有一个客户想知道这个问题,因为他的审计员拿起了它,想知道他的许可证在哪里。

没有可用磁盘空间

我有奇怪的情况,因为Linux df命令说没有可用的磁盘空间 [root@backup cache]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda3 72G 70G 0 100% / /dev/sda1 190M 11M 170M 7% /boot tmpfs 248M 0 248M 0% /dev/shm 但是du -sh /*说 [root@backup cache]# du -sh /* 4.0K /bacula-restores 7.4M /bin 5.4M /boot 3.6T /data 116K /dev 55M /etc 204K /home 76M /lib […]

我如何确定我的Linux机箱是否已经被渗透?

我最近阅读了一篇关于分析恶意SSHlogin尝试的文章 。 这让我想到,在我的Debian盒子上的SSH用户名,密码组合是不是很普遍? 如果我被powershell字典攻击的目标? 我们来看看/var/log/auth.log.0 : Sep 23 07:42:04 SLUG sshd[8303]: Invalid user tyjuan from 210.168.200.190 Sep 23 07:42:09 SLUG sshd[8305]: Invalid user tykeedra from 210.168.200.190 Sep 23 07:42:14 SLUG sshd[8307]: Invalid user tykeem from 210.168.200.190 Sep 23 07:42:19 SLUG sshd[8309]: Invalid user tykeshia from 210.168.200.190 Sep 23 07:42:25 SLUG sshd[8311]: Invalid user tyla from […]

在/ home /中find大文件(> 100 MB)以进行“清理”

如何在/home/ for'cleaning'中find大文件(> 100 MB)? 它是Centos 6.x. 我尝试了一些命令,但他们没有工作。

SynProxy不能返回具有不对称双桥拓扑的syn ack数据包

我有一个不对称的双桥拓扑结构,如下所示,当我从ssh连接172.16.11.5和172.16.10.6,但由于SynProxy我无法连接。 ——- | | —o— 172.16.11.5 | | —–o—– 172.16.11.6 | | | | default gw 1.1.1.1 | | 1.1.1.2/30 –o—-o— 2.2.2.2/30 | | | | | | (enp10s0f0) —-o—-o—– | | | XXX | | | | br1 br0 | synproxy | | —-o—-o—– | | | | | | 1.1.1.1/30 –o—-o— 2.2.2.1/30 | […]

大型系统(约2000用户)的stream量控制的最佳解决scheme是什么?

以下情况:我们是一个为当地居民大厅pipe理互联网连接的学生,总共有大约2000名terminal用户。 我们有一个交通点系统,每个MB下载或上传成本点,新的点加小时。 目前,我们阻止用户的互联网访问,当他把所有的点(通过在我们的Debian网关路由器上的iptables中的放弃他的REJECT政策)。 我们只想限制用户的带宽。 什么是最好的方法来做到这一点? 简单的答案是设置用户的交换机端口(主要是Cisco Catalyst 3550s)的速率限制。 然而,这是不可取的,因为我们自己的networking和大学networking内的stream量应该是无限的。 是否有一种方法可以限制仅在具有特定目的地或源IP范围的数据包(在出口和入口都在Cisco IOS中)的带宽? 我找不到任何东西。 另一种方法是控制网关路由器上的stream量。 我想到了几个解决scheme: tc或tcng – 似乎都有一个相当神秘的语法,既不提供执行每IPstream量控制的好function。 对于这么多人来说,专用的QDisc可能会让路由器变慢。 而且,两者的文档都相当过时。 shorewall – 似乎有一个相当整齐的configuration语法,但是,我不确定它是否可以处理这个数量的stream量和用户,是否适合每个IPstream量限制 pfSense – 看起来像一个旨在用于我们的目的的操作系统。 但是,这将需要我们重新安装我们的网关路由器。 我们没有其他的BSD系统,pfSense需要非常好的stream量统计function(我们目前在那里使用fprobe-ulog和ulog-acctd)。 你有什么经验? 哪种解决scheme适合我们的需求,最容易维护? 你有其他想法吗? 如果您需要关于我们的系统的任何其他信息,请不要犹豫,问。 提前致谢。 编辑 :我用iptables和tc实现了系统。 每个用户都有一个/ 28个子网,一个VPN IP(来自10.0.0.0/8)和一个外部IP,全部通过一个iptables链来操纵。 这条链只有一个规则,一个简单的RETURN 。 每5分钟一个Python脚本读出这些规则的字节计数器。 它重置计数器并更新PostgreSQL数据库中用户的stream量点账户。 如果用户的点余额减less到某个阈值以下,则为该用户创build两个tc类(一个用于input,一个用于网关路由器上的输出接口),IP被input到属于这些类的tcfilter中。 这些课程由HTB限制速度。 与之前使用fprobe-ulog和ulog-acctd系统相比,字节计数由iptables完成的速度要快得多。 networking速度已经为我们的用户大大改善。

如何限制AWS EC2上的带宽使用量?

我正在计划将AWS EC2用于我的Web应用程序,并且需要控制带宽使用情况(不要让实例受到影响,并且疯狂地增加带宽成本)。 AWS论坛上有很多关于这个问题的主题,并没有立即解决。 还有其他云主机,如GAE和Rackspace,但我真的想使用AWS。 我正在阅读,在Linux中,有tc命令和stream量整形程序,可以限制带宽使用。 任何人在AWS上使用它们进行stream量控制? 他们是否实用? 任何新手指南(我发现的相当复杂)?

针对低延迟10GbE – > 1GbEnetworking的TCP拥塞控制?

我有一个10GbE连接到交换机的服务器,和10个客户端,每个连接1GbE连接到同一个交换机。 在每个客户机上并行运行nuttcp,我可以以接近线速的速度同时向服务器推送10个TCP数据stream(即,同时从所有10个客户机以每秒100兆字节为单位)。 然而,当我逆转方向并将数据从服务器发送到客户端时(即,10个TCPstream,每个客户端一个TCP连接),TCP重新传输量猛增,性能下降到30,20甚至10兆字节每秒每个客户端。 我希望得到这些数字,因为这种stream量模式是我关心的某些应用程序的代表。 我已经validation了我的服务器能够通过在类似的服务器上通过10GbE连接执行相同的实验来饱和10GbE链路。 我已经validation在我的任何端口上都没有错误。 最后,当我强行钳制(限制)接收器的TCP窗口大小时,我可以获得更高的带宽(30-40兆字节/秒)。 如果我将其限制得非常低,我可以将重传数据设置为零(带宽低得可怜)。 因此,我相当有把握地确信我的交换机中的缓冲区溢出,导致拥塞导致的数据包丢失。 但是,我认为TCP的拥塞控制本来是要处理好的,最终稳定在线速度的50%以上。 所以我的第一个问题很简单:哪个TCP拥塞控制algorithm最适合我的情况? 有很多可用的,但他们似乎主要是针对有损networking或高带宽高延迟networking或无线networking…没有一个适用于我的情况。 第二个问题:还有什么我可以尝试?

如何在Linux内核中禁用perf子系统?

我正在运行一些基准。 我的基准跑步者监视实验之间的dmesg缓冲区,寻找任何可能影响性能的东西。 今天它扔了这个: [2015-08-17 10:20:14警告] dmesg似乎已经改变了! 差异如下: — 2015-08-17 09:55:00 +++ 2015-08-17 10:20:14 @@ -825,3 +825,4 @@ [3.802206] [drm]启用RC6状态:RC6开启,RC6pclosures,RC6ppclosures [7.900533] r8169 0000:06:00.0 eth0:连结 [7.900541] IPv6:ADDRCONF(NETDEV_CHANGE):eth0:链接已准备就绪 perf [236832.221937] perf中断时间过长(2504> 2500),将kernel.perf_event_max_sample_rate降至50000 经过一番search之后,我现在知道这涉及到linux内核中称为“perf”的剖析子系统。 我不认为我们需要这个,所以我想完全禁用它。 再次search,我发现sysctl perf_cpu_time_max_percent可以帮助。 这里有人build议通过将其设置为0来禁用它。在这里阅读更多: perf_cpu_time_max_percent: 向内核提示应该允许使用多lessCPU时间来处理perf采样事件。 如果perf子系统被告知其样本超过此限制,则会降低其采样频率以尝试降低其CPU使用率。 一些perf抽样发生在NMI中。 如果这些样本意外花费太长的时间执行,那么NMI可能会彼此紧挨在一起,以至于没有其他的东西可以执行。 0:禁用该机制。 不pipeCPU占用多less时间,都不要监视或纠正每个采样率。 1-100:尝试将perf的采样率调整到这个百分比的CPU。 注意:内核计算每个样本事件的“预期”长度。 这里的100意味着100%的预期长度。 即使设置为100,如果超过此长度,仍可能会看到样品限制。 设置为0,如果你真的不在乎多lessCPU消耗。 这对我来说听起来像0意味着分析采样率不再检查,但freq子系统保持运行(?)。 任何人都可以阐明如何彻底禁用与freq内核分析? 编辑:有人build议我尝试build立一个没有perf的内核,但我不认为这是可能的。 该选项似乎不可切换: 编辑2:更多的阅读后,我决定我可以设置kernel.perf_event_max_sample_rate为零。 即每秒没有采样。 但是,你不能这样做( 来源 ): […]

两台Linux服务器之间的桥接networking

我需要build立以下networking架构: Internet ^ +—————–+ | +——————+ | Centos6-1 | | | Centos6-2 | | +—- eth0 + —-+ | | | (br0)| | | | | +—- eth1 +—————-+ eth0 | +—————–+ +——————+ ( cable connection ) 两个公网IP被configuration如下: ** Centos6-1的eth0和eth1将被configuration为IP1的网桥 Centos6-1可以用IP1访问 Centos6-2的 eth0configuration了IP2 任何发往IP2的请求都将stream经Centos6-1 我怎样才能完成这个壮举? 有一个服务在第二个服务器上运行。 该服务将绑定到IP2。 会发生什么 编辑: 如果我在box1中执行以下操作: brctl addbr br0 ifdown eth0 […]