所以,我有磁盘故障,并将LV从故障磁盘移动到新的PV。 一些LV成功移动,有些则不成功。 之后,我以下列状态结束: – 两个locking的LV – 缺lessPV的卷组 当我尝试删除PV时,我得到: vgreduce –removemissing –force vg3 Couldn't find device with uuid RQr0HS-17ts-1k6Y-Xnex-IZwi-Y2kM-vCc5mP. Removing partial LV var. Can't remove locked LV var lvremove -fff vg3/var Couldn't find device with uuid RQr0HS-17ts-1k6Y-Xnex-IZwi-Y2kM-vCc5mP. Can't remove locked LV var pvmove –abort Couldn't find device with uuid RQr0HS-17ts-1k6Y-Xnex-IZwi-Y2kM-vCc5mP. Cannot change VG vg3 while PVs […]
这可能有点深奥,但是我有一个奇怪的与stat()的问题。 特别是 – 在Linux系统上安装了Isilon存储NFS。 我有一个在同一个文件上运行fstat时获得时间差的进程。 我可以使用一点C来重现这一点,它没有比open-write-stat-close更复杂; 开放-STATclosures 这两个数字偶尔会有几个毫秒的差别 – 一个文件可能会比实际上显得“老”。 我不清楚“stat”是从主机还是从服务器读取时间。 而且我也不清楚问题是否与Isilon有关(尽pipe在NetApp存储上似乎没有发生这种情况)。 任何人都可以给我一点洞察可能会发生什么? 举个例子: time mismatch: 1468936451.862865611 != 1468936451.860183107 第一个是文件句柄打开时读取的时间。 第二个是closures(和fsync )后读取的时间。 正如你所看到的那样 – 文件在服务器上比在客户端上老一些。 C来testing这个是: #include <stdio.h> #include <stdlib.h> #include <fcntl.h> #include <unistd.h> #include <sys/stat.h> #include <sys/types.h> int main () { while (1) { struct stat sb[2]; /* * Open file */ int fd […]
我可能在这里采取了错误的方法,但是cgroups的新的centos 7实现允许您通过将限制附加到他们的切片来限制用户对系统资源的访问。 IE浏览器。 systemctl set-property user-1005.slice CPUShares=100 但是,该切片将不会存在,直到用户初始login。由于我将创build用户,我会喜欢只是在创build时触发初始login,然后附加一些默认的cgroup值。 我尝试使用su但没有奏效。 我唯一能想到的其他事情就是在本地设置用户密码和ssh密码,这看起来很头疼。 有没有一个简单的工具来启动login,可能会创build一个用户的切片? 甚至更好的方法来解决这个问题? 干杯!
由于在我的NFS客户端和NFS服务器上最近进行的Linux内核升级(在Debian Wheezy上是3.2.78),我看到从客户端到服务器的nfs_lookup请求的数量增加很多(10到20倍)。 这对运行在我的NFS客户端上的应用程序(apache + php-fpm)造成巨大的性能下降。 什么可能导致nfs_lookup这么高的增长? 正常运行1小时后,在其中一个客户mountstats –nfs上输出mountstats –nfs如下: Stats for ruchbah.nfs://membres mounted on /srv/membres: NFS mount options: rw,vers=4,rsize=1048576,wsize=1048576,namlen=255,acregmin=3,acregmax=60,acdirmin=30,acdirmax=60,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.74.13,minorversion=0,local_lock=none NFS server capabilities: caps=0x7fff,wtmult=512,dtsize=32768,bsize=0,namlen=255 NFSv4 capability flags: bm0=0xfdffbfff,bm1=0xf9be3e,acl=0x3 NFS security flavor: 1 pseudoflavor: 0 Cache events: data cache invalidated 1231 times attribute cache invalidated 23693734 times inodes synced 1790 times VFS calls: VFS requested 46296214 inode […]
我有一些标有磁带号码的富士胶片LTO-6磁带。 我正在写一个脚本,我想从磁带号码分配一个variables。 这些信息是否存储在磁带上的任何地方? 如果不是的话,我只需要在input提示符下创build一个variables,但是如果是这样的话会好很多。
我试图通过reposync添加CentOS7存储库到补鞋匠。 我已经使用以下设置将镜像信息添加到皮匠Web界面: Arch: x86_64 Breed: yum Mirror: http://mirror.as29550.net/mirror.centos.org/7/ Name: Centos7 Owners: admin 当我运行: cobbler reposync –only="Centos7" reposync失败,输出如下: task started: 2016-07-25_164113_reposync task started (id=Reposync, time=Mon Jul 25 16:41:13 2016) hello, reposync run, reposync, run! creating: /var/www/cobbler/repo_mirror/Centos7/.origin/Centos7.repo running: /usr/bin/reposync -l -n -d –config=/var/www/cobbler/repo_mirror/Centos7/.origin/Centos7.repo –repoid=Centos7 –download_path=/var/www/cobbler/repo_mirror -a x86_64 received on stdout: received on stderr: Error setting up repositories: […]
当我SSH到一个Arch Linux服务器,并包括一个命令行,我结束了一个POSIX语言环境: laptop.lan$ ssh server.lan locale LANG= LC_CTYPE="POSIX" LC_NUMERIC="POSIX" LC_TIME="POSIX" LC_COLLATE="POSIX" LC_MONETARY="POSIX" LC_MESSAGES="POSIX" LC_PAPER="POSIX" LC_NAME="POSIX" LC_ADDRESS="POSIX" LC_TELEPHONE="POSIX" LC_MEASUREMENT="POSIX" LC_IDENTIFICATION="POSIX" LC_ALL= laptop.lan$ 据我所知,区域设置正确的服务器上。 /etc/locale.conf看起来像这样: LANG=en_US.UTF-8 而且,当我正常SSH,我的区域设置是好的: laptop.lan$ ssh server.lan server.lan$ locale LANG=en_US.UTF-8 LC_CTYPE="en_US.UTF-8" LC_NUMERIC="en_US.UTF-8" LC_TIME="en_US.UTF-8" LC_COLLATE="en_US.UTF-8" LC_MONETARY="en_US.UTF-8" LC_MESSAGES="en_US.UTF-8" LC_PAPER="en_US.UTF-8" LC_NAME="en_US.UTF-8" LC_ADDRESS="en_US.UTF-8" LC_TELEPHONE="en_US.UTF-8" LC_MEASUREMENT="en_US.UTF-8" LC_IDENTIFICATION="en_US.UTF-8" LC_ALL= server.lan$ 这里发生了什么,我怎样才能使一次性命令使用我的首选语言环境呢?
我正在用两个磁盘pipe理文件服务器。 服务器运行的是Ubuntu 14.04,它已经configuration了软件RAID1( /dev/md0 ),并在其上面装有LVM。 重要的数据存储在/var和/srv文件系统中,我被要求对它们进行encryption,但是我不确定要采用哪种方式。 我可以创build新的逻辑卷,使用dm-crypt来encryption它们,然后创build一个文件系统并在那里移动数据? 由于encryption卷需要在启动时自动挂载,因此我应该将encryption密钥存储在不同的设备上,如USB棒,是不是? 我所关心的是: 现在我不知道/var和/srv会增长多less,所以我希望能够在需要时轻松扩展这些文件系统(这就是为什么我们使用LVM)。 如果磁盘被replace并放在别处,我需要保护/var和/srv数据。 我比可靠性和安全性更关心可靠性和安全性。 我不在乎的是: 我不需要保护根文件系统,因为它是一个非常标准的configuration。 我不需要保护交换卷,我甚至考虑删除它的选项,因为它从来没有使用(有大量的RAM可用)。 以下是我目前的设置,供参考: $ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 1,8T 0 disk └─sda1 8:1 0 1,8T 0 part └─md0 9:0 0 1,8T 0 raid1 ├─raidvg-varlv (dm-2) 252:2 0 15G 0 lvm /var ├─raidvg-srvlv (dm-3) 252:3 0 […]
我有3个复制的机器与Zookeeper和ActiveMQ(Linux)。 我可以确认zookeeper工作正常,因为我可以看到他们的端口(2888和3888)通过netstat监听。 问题在ActiveMQ方面得到证实。 在奴隶机器上,一切似乎都运行良好,因为ActiveMQ没有logging任何错误或警告。 但是在主机中,由于IllegalArgumentException stacktrace,日志不同。 这是来自activemq.log的错误消息: ERROR | Error in thread 'ActiveMQ BrokerService[broker] Task-1' java.lang.IllegalArgumentException: port out of range:-1 at java.net.InetSocketAddress.checkPort(InetSocketAddress.java:143)[:1.7.0_111] at java.net.InetSocketAddress.<init>(InetSocketAddress.java:185)[:1.7.0_111] at org.fusesource.hawtdispatch.transport.TcpTransportServer.<init>(TcpTransportServer.java:52)[hawtdispatch-transport-1.22.jar:1.22] at org.apache.activemq.leveldb.replicated.MasterLevelDBStore.start_protocol_server(MasterLevelDBStore.scala:134)[activemq-leveldb-store-5.13.4.jar:5.13.4] at org.apache.activemq.leveldb.replicated.MasterLevelDBStore.doStart(MasterLevelDBStore.scala:111)[activemq-leveldb-store-5.13.4.jar:5.13.4] at org.apache.activemq.util.ServiceSupport.start(ServiceSupport.java:55)[activemq-client-5.13.4.jar:5.13.4] at org.apache.activemq.leveldb.replicated.ElectingLevelDBStore$$anonfun$start_master$1.apply$mcV$sp(ElectingLevelDBStore.scala:230)[activemq-leveldb-store-5.13.4.jar:5.13.4] at org.fusesource.hawtdispatch.package$$anon$4.run(hawtdispatch.scala:330)[hawtdispatch-scala-2.11-1.22.jar:1.22] at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)[:1.7.0_111] at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)[:1.7.0_111] at java.lang.Thread.run(Thread.java:745)[:1.7.0_111] 有人可以解释为什么我得到这个错误,我该如何解决? Addtional Info:我的zookeeper和activemqconfigurationhttps://gist.github.com/kana0011/3ad1c960b9aa24b8af8d7b623c4cb2b3 (省略的部分几乎是默认的)
最终目标是通过在lo接口上设置多个具有相同/ 128的服务器来获得每个分组的ipv6 udp负载均衡。 首先,试图让它与静态路由一起工作,然后开始使用Quagga或类似的软件包来探索BGP。 这必须在100%的虚拟环境中完成。 从我的search看,发行说明看起来像是在Linux Kernel 3.6中添加的。 但是我还没有能够设置这个function的成功演示。 使用ip命令,我应该可以添加多个路由到相同的IPv6子网,权重相同。 例如: ip -6 route add badd:badd:badd:1::1/128 nexthop via badd:badd:badd:2::1 nexthop via badd:badd:badd:2::2 我的服务器连接到badd:badd:badd:2 :: / 64并且可以同时达到badd:badd:badd:2 :: 1和badd:badd:badd:2 :: 2。 其他两个服务器在lo界面上都有badd:badd:1 :: 1/128。 我每次看到的情况是数据包只能通过路由表中的最后一个条目路由。 如果我用IPv4复制这个设置,我看到数据包路由通过表中的两个条目切换每隔一个数据包。 我已经尝试了多个内核3.10,4.4,4.6,但每个都收到了相同的结果。 我做错了什么,还是不支持? 谢谢!