我有一个设置/有50G空间。 我想增加/空间。 [root@testsyst ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg_testsyst-lv_root 50G 22G 26G 46% / tmpfs 127G 0 127G 0% /dev/shm /dev/mapper/mpathap1 481M 40M 416M 9% /boot /dev/mapper/vg_testsyst-lv_home 242G 188M 230G 1% /home /home有242G ,从/home我想移动150G到/ 。 请参阅下面的lvmdisplay和vgdisplay的输出。 [root@testsyst ~]# lvdisplay — Logical volume — LV Path /dev/vg_testsyst/lv_root LV Name lv_root VG […]
我的iptables DNAT规则不能工作,直到重新启动。 如果我重新启动我的服务器,所有的规则工作。 架构描述: 数十个主机(发送者)发送一些UDP数据包(单向的特定端口9999)到我的Linux路由器。 这个Linux路由器使用iptables将这些数据包转发给几台主机(接收器)。 senderX 10.0.0.X ====>使用iptables的Linux路由器====> receiverY 10.0.1.Y Linux路由器有两个网卡eth1 10.0.0.1/24(发送方)和eth0 10.0.1.1/24(接收方)。 iptables设置: ip_forwarding被激活 所有的默认策略都设置为ACCEPT 一个iptables规则存在每个发件人,这里是一个例子: iptables -t nat -A PREROUTING -s 10.0.0.2 -i eth1 -j DNAT – 到目的地10.0.1.123 networking设置 : ip addr show : 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo […]
在shell中服务器启动几个命令后,我看到以下错误: Error: nmcli (1.0.0) and NetworkManager (0.9.9.1) versions don't match. Force execution using –nocheck, but the results are unpredictable 我发现有更新版本的NetworkManager。 我如何更新它? 我试过yum update NetworkManager没有成功 我使用CentOS Linux release 7.1.1503 (Core)
我已经完全没有做我的BINDconfiguration,但看起来像Debian Jessie升级已经打破了它。 也许有一些新的select被介绍给它,或者旧的东西现在工作不同,但是我找不到什么错误。 我一直在/var/log/bind/bind.log有SERVFAIL 。 我已经用named-checkzone检查了我的区域,它们都是“OK”。 我已经禁用了整个系统的IPv6。 我重新创build了rndc键,甚至创build了/etc/rndc.conf 。 没有任何工作 这里有一些configuration: /etc/bind/named.conf include "/etc/bind/named.conf.options"; include "/etc/bind/named.conf.log"; include "/etc/bind/named.conf.local"; //include "/etc/bind/named.conf.default-zones"; acl localhost_acl { 127.0.0.0/8; }; acl internal_10_acl { 192.168.10.0/24; }; acl internal_150_acl { 192.168.150.0/24; }; acl vpn_acl { 192.168.200.2; 192.168.200.5; }; key "rndc-key" { algorithm hmac-md5; secret "somesecretkey=="; }; controls { inet 127.0.0.1 port 953 […]
我有一个在Digital Ocean上托pipe的Ubuntu服务器,已经超过了现有的备份解决scheme。 我使用的堆栈的相关部分是Node.js,MongoDB和Elasticsearch。 到目前为止,已经通过转储整个MongoDB数据库,保存ESconfiguration,并将所有其他文件(日志,代码本身等)复制到应用程序目录中来完成备份。 如果是本月的第一个,所有的用户文件也被复制,否则只有从第一个月开始才添加文件。 所有这些都被压缩成一个文件并上传到Amazon S3。 数据大小已达到这个过程需要太多的磁盘空间,文件不能一次上传到S3。 什么是这个大小的应用程序的下一个级别(8 GB的用户文件,125,000用户,3,000其他文档,所有searchES)? 我明白基于意见的问题是不正确的服务器故障。 我不是在征求意见,只是一个正常的,具有成本效益的解决scheme是适用于这种规模的应用程序。 更新:这是我试图使用Duplicity与脚本和configuration的相关部分。 我使用Node来pipe理备份,因为它适合我现有的日志logging解决scheme,已经计划在低活动时间与其他所有内容保持一致,并且可以在各个操作系统之间移植。 节点脚本,日志logging当然需要改进: // Walks a directory recursively and returns a flat list of files function walkDir() {}; // Node based rm -rf function rmrf() {}; exec("mongodump –out dump", { cwd: process.cwd() }, function(err, dta) { if (err) return log("Error backing up: couldn't […]
我在我的工作站上运行Linux上的ZFS,已经有两年了: [ 273.779699] SPL: Loaded module v0.6.4.2-1~vivid [ 273.824212] ZFS: Loaded module v0.6.4.2-1~vivid, ZFS pool version 5000, ZFS filesystem version 5 [ 280.179534] SPL: using hostid 0x007f0101 它工作的很好,除了几个月前我升级到Ubuntu 15.04。 升级后重新启动时,没有看到ZFS池。 起初我惊慌失措,但是当我有zpoolsearch我的设备时,发现了缺less的池。 运行“zpool导入存储”工作正常,所有事情都应该如此。 直到下一次我重新启动。 每当我重新启动ZFS似乎忘记我的游泳池。 不过,我看不出有什么明显的错误: $ sudo zpool list -Hv store 1.30T 301G 1.00T – 22% 22% 1.17x ONLINE – sda4 432G 135G 297G – […]
我有一个要求我的Ubuntu 14.04.3 LTS服务器有> 65k客户端通过TCP连接到它。 虽然我有内存和CPU,我无法获得超过65K的客户端连接。 我怀疑这是一个开放的文件限制问题,但是我已经遵循了许多现有的解决scheme,以改变打开的文件数量的限制,但我仍然达到极限。 我做了以下更改 在/etc/security/limits.conf * soft nofile 500000 * hard nofile 500000 root soft nofile 500000 root hard nofile 500000 /etc/pam.d/common-session session required pam_limits.so /etc/pam.d/common-session-noninteractive session required pam_limits.so /etc/sysctl.conf中 fs.file-max = 500000 当我检查ulimit它看起来是正确更新,你可以看到下面… :~$ ulimit -a core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited scheduling priority (-e) […]
我需要每隔几分钟运行几个脚本。 这个逻辑是用PHP编写的,而且工作的很好。 为了保持一致,我做了下面的bash脚本,这也运行良好。 #!/bin/bash calculaDiff() { DIFF=0 while [ "$DIFF" -eq "0" ]; do DIFF=`php calculaDiff.php` done; } # need to calculate pending diffs calculaDiff # main loop while true; do CAPTURA=`php capturaRelatorio.php` if [ "$CAPTURA" -eq "0" ]; then calculaDiff fi VERIFICA=`php verificaLimites.php` done 脚本capturaRelatorio.php里面有一个睡眠,因为我只能每隔N分钟处理一次。 它会打印一条消息,说它睡了S秒,所以我可以监控它。 如果我在这个时候调用bash脚本并按Ctrl + C ,当它正在hibernate的时候,它会杀死bash脚本,但是不会杀死被调用的php脚本。 我知道有一个不同的进程运行它。 那么,有没有办法杀死bash脚本和每个“孩子”? 还是应该用另一种方法来运行这些脚本?
将单个端口DNATing到内部networking上不同端口的标准方式是这样的: ip(6)tables -t nat -A PREROUTING -i wan0 -p tcp –dport 80 –to-destination 10.0.0.1:8080 如果你需要一个端口范围,你可以使用-m multiport和–dports这样的-m multiport : ip(6)tables -t nat -A PREROUTING -i wan0 -p tcp -m multiport –dports 1000:2000 –to-destination 10.0.0.1 现在我想知道,如果你可以结合这两种技术来映射一个端口范围(例如1000-2000)不同的大小相同(例如12000-13000)。 这是可能的,使用内核不晚于Linux 4.1的内核?
我一直在阅读并开始设置一些不同的服务器群集环境。 我使用各种Linux发行版正常工作。 基本设置如下: —– App Server 1 | Database Server 1 Load Balancer –| Database Server 2 | —– App Server 2 正如你所看到的,这是一个基本的奴隶主设置。 我的问题我不确定复制应用程序服务器部分的最佳方式。 所以,如果新的脚本文件或更改是对应用程序服务器1,这些更改如何级联到第二个应用程序服务器? 数据库服务器运行MySQL,所以任何更新都会自动更新到其他的级联。