我想通过NFSv4共享一个文件夹,可供某些用户使用,而且我有权限问题。 我使用setGID设置文件夹权限,以便使用文件夹组所有者创build新文件。 但是用户可以自由地创build没有权限的文件(事实上,默认用户UMASK是700,所以这一直发生)。 我最终试图使用ACL来应用此解决scheme来强制执行目录umask 。 我做了,但没有按预期工作。 我在NFS维基上读到,定期的ACL不能在NFSv4上运行,而且我需要使用nfs4特定的ACL工具。 但我有一些麻烦。 我尝试在服务器上安装nfs4-acl-tools,我得到这个: # nfs4_getfacl /export/proyectos/ Operation to request attribute not supported. 是的,该分区是安装ACL支持。 /dev/mapper/mpath4-part1 /export/proyectos ocfs2 rw,relatime,_netdev,heartbeat=local,nointr,data=ordered,errors=remount-ro,usrquota,coherency=full,user_xattr,acl 0 0 常规的ACL正在工作: # getfacl /export/proyectos/ getfacl: Eliminando «/» inicial en nombres de ruta absolutos # file: export/proyectos/ # owner: root # group: root # flags: –t user::rwx group::rwx other::rwx default:user::rwx default:group::rwx […]
我被要求在投标中断言我的软件将在Linux下与VirusScan (v6.0.3)同步而没有问题。 我的软件是一个web应用程序,运行在tomcat下。 它可以创build额外的JVM(运行ETL作业),并将报告文件(主要是PDF和HTML)写入应用程序目录。 我应该知道关于在我的应用程序将运行在服务器上运行的VirusScan的任何具体问题?
最近几天试图在我的服务器上设置DJBDNS的过程中,我一直在绞尽脑汁。 我没有太多运气。 我一直在遵循DJBDNS的创build者提供的指南: http ://cr.yp.to/djbdns/run-server.html 这里是我所处的地方: 这两个服务都起来了: [root@Happycat tinydns]$ svstat /service/tinydns/ /service/tinydns/: up (pid 18224) 74454 seconds [root@Happycat tinydns]$ svstat /service/dnscache/ /service/dnscache/: up (pid 2733) 2184 seconds 我的/etc/resolv.conf文件: nameserver 127.0.0.1 我的$PATH : [root@Happycat ~]$ echo $PATH /usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/sbin:/sbin:/usr/sbin:/var/qmail/bin/:/usr/nexkit/bin:/root/bin 我的tinydns/root/datalogging: ..:69.160.56.65:a:259200 .ns1.benwilk.com:69.160.56.65:a:259200 .ns2.benwilk.com:69.160.56.65:a:259200 .56.160.69.in-addr.arpa:69.160.56.65:a:259200 .56.160.69.in-addr.arpa:69.160.56.65:b:259200 =benwilk.com:69.160.56.65:86400 =openbarrel.net:69.160.56.65:86400 +www.openbarrel.net:69.160.56.65:86400 +www.benwilk.com:69.160.56.65:86400 微小的DNS可以识别logging集: [root@Happycat root]$ tinydns-get a benwilk.com 1 benwilk.com: […]
我试图用puppet作为unix用户pipe理。 以下是我创build的用于添加新用户的类: class unix_accounts( $username, $forename, $name, $email, $uid) { user { $username: comment => '$forename $name', home => '/home/$username', shell => '/bin/bash', uid => $uid, groups => [$username, 'sudo'], } 我想,基本上可以从$ name和$ forename中推导出电子邮件和用户名,以便在unix_accounts类中定义这些variables。 我试过这个: $username = $forename[0].chr.downcase+name.downcase $email = $forename.downcase+'.'+$name.downcase+'@localnet.lan' 但是客户端的puppetdtesting在第一个点(。)出现以下消息: Error 400 on server: Syntax error at '.'; expected '}' at …. 这与ruby没有任何关系,因为我之前用irb试过了,似乎只和puppet语法有关。 […]
我有一个具有以下细节的目录: drwxrwxr-x 6 root devs 4.0K Sep 9 14:57 project_dev 现在我希望www-data (Apache守护进程)能够访问这个目录,所以在我的脑海里,我打算将www-data添加到组devs中。 但是,如果我执行这个操作,恐怕会造成残骸: usermod -a -G devs www-data 请input。
+ ——– + | 主机A | + —- + — + | eth0(AA:AA:AA:AA:AA:AA) | | + —- + —– + | 开关1 | (二层/ 3) + —- + —– + | + —- + —– + | 开关2 | + —- + —– + | + ———- + ———- + + ————————- + Switch 3 […]
我有一个在Parallels上运行CentOS的虚拟机片。 这是free -m的输出 [root@server ~]# free -m total used free shared buffers cached Mem: 960 272 687 0 0 0 -/+ buffers/cache: 272 687 Swap: 0 0 0 这是一个LAMP服务器,数据库本身超过1000 MB。 不应该“缓冲区”和“caching”显示更高的值,caching数据库文件? 它看起来只有1/3的内存正在使用。
目前,我们刚刚进入一个新的数据中心,networking性能出现非常大的问题,老实说,我无所适从, 所以我正在寻找一些灵感。 DataCenter有一个我无法访问的托pipenetworking,但是我们负责pipe理其中的主机。 一般信息 在DataCenter环境(Dell R210s和R710s)中,我们有十一台主机(全是Debian Squeeze)。 每个主机都有两个活动接口,它们以bond0主动/被动设置(eth0和eth1)设置。 主机上的networking堆栈大部分都是按照默认的Debian设置,我们没有尝试性能优化或类似的运行。 这个问题在十一台主机上是相同/可复制的,但是只适用于跨越networking边界的stream量(即不适用于内部主机本身之间的stream量)。 DataCenter支持团队已经将笔记本电脑挂接到与其他主机所在的交换机相同的交换机上,并且无法重新创build问题; 因此有说它必须是内部主机本身的configuration问题,而不是networking的问题。 问题 在出站传输中,传输以大窗口大小快速开始,但在远程服务器上,数据包乱序接收,这又会导致重复的ACK被发送出去。 在很短的时间内,窗口大小已经大量缩减(稳定在4万到6万个字节之间),传输速度从每秒兆字节降低到〜200-300KB /秒。 在入站传输中,一切都是“好的”(其中“良好”被定义为2MB /秒的持续传输速率)。 所以,从数据中心传输一个20MB文件的SCP将以〜2.2MB /秒的速度启动,但是会下降到〜275KB /秒,总共需要01m14s,而同一个20MB文件传输到数据中心的SCP将启动以每秒2.2MB的速度在2.0-2.2MB / sec之间保持稳定,并在00分09秒完成。 我所尝试的 我已经validation了主机和networking硬件之间没有任何协商混淆 – 所有链路被所有方看作1GbE全双工。 我试过禁用窗口缩放。 我已经尝试从他们的debian默认缩小net.ipv4.tcp_rmem和net.ipv4.tcp_wmem。 我试过禁用bond0,只是通过简单的eth0接口传输文件。 我尝试转移到多个遥远的外部终点; 都共享相同的问题(即我相信,问题是在数据中心的一端,而不是在另一端)。 我运行mtr检查路由到多个外部端点(所有我可以复制问题) – 路由是不同的(在几跳之后根本不相似),并且其中一些显示一定程度的丢包; 在所有端点(具有不同的路由和不同的分组丢失水平)之间的行为如此相似,这一事实使我相信问题不是来自内部DC超过三或四跳的问题(因为这些都是每条路由的普通跳数 – 而且这些跳数不会显示任何明显的丢包水平)。 以下是入站/出站stream量的stream量分析(从DC中的主机angular度)。 正如你所看到的那样,(非常)正常的重复ACK使传输速度远远低于应有的速度。 另请注意,在入站传输中,不会出现同样的问题。 tshark -r outbound-bond0.pcap -q -z io,stat,1,\ "COUNT(tcp.analysis.retransmission) tcp.analysis.retransmission",\ "COUNT(tcp.analysis.duplicate_ack)tcp.analysis.duplicate_ack",\ "COUNT(tcp.analysis.lost_segment) tcp.analysis.lost_segment",\ "COUNT(tcp.analysis.fast_retransmission) tcp.analysis.fast_retransmission" =================================================================== […]
我有一个远程运行的CentOS虚拟机,可以通过VPN访问。 它被设置为同步来自同一networking上的两台服务器的时间。 时间是大致正确的,但似乎是漂stream。 我对下面输出中提到的2036年的date感到担心,我应该吗? /usr/sbin/ntpq -pcrv remote refid st t when poll reach delay offset jitter ============================================================================== 10.245.8.100 10.249.8.100 2 u 24 64 377 1.185 12124.8 29.489 10.249.8.100 .RMOT. 16 u – 1024 0 0.000 0.000 0.000 assID=0 status=c011 sync_alarm, sync_unspec, 1 event, event_restart, version="ntpd [email protected] Fri Nov 18 13:21:21 UTC 2011 (1)", processor="x86_64", system="Linux/2.6.18-308.el5", […]
我们有一台运行着软件RAID1的Linux服务器。 我们在/var/log/messages看到一些问题: 不可读的扇区 。 我想在驱动器上执行一个完整的fsck来获得更多的信息,但是由于之间的软件RAID层, fsck /dev/md0带来了一个清理。 我怎样才能检查真正的硬盘驱动器? 我是否需要拆卸整个RAID? 由于额外的软件RAID标头,我该如何处理分区的不一致? 有没有人有这个好主意?