我有一个Ubuntu系统,我用ssh作为普通用户来控制命令。 在那台机器上,我有一个NFS共享的fstab条目。 我可以挂载和卸载文件夹,因为我有在fstab条目中设置的user选项。 问题在于NFS服务器每晚关机(不会更改),导致客户机上出现Stale file handle错误。 作为一个sudo用户,我可以简单地强制一个umount /挂载NFS共享,但是这是不可能的,因为我通过ssh作为普通用户来控制机器,而我不打算input密码。 所以问题是:作为一个普通用户,我可以如何卸载/重新安装或以其他方式修复Stale file handle错误?
你将如何监视安装的NFS目录与Zabbix的响应? 我正在考虑类似的东西 $ time /bin/ls -U /path/to/nfs (我认为nfsstat(8)的输出与用户体验的关系较小。)
$ /sbin/mount.nfs –version mount.nfs: (linux nfs-utils 1.2.8) $ mkdir -p ~/mnt && sudo mount -t nfs -o rw,all_squash xx.xx.xx.xx:/lgtm/path/to/share ~/mnt mount.nfs: an incorrect mount option was specified 如果我删除all_squash那么它工作正常(显然与错误的UID / GID)。 all_squash选项也不在man nfs中。 在某个时候被replace了吗? 编辑:我的操作系统是Ubuntu 14.04,但all_squash似乎并没有在我的OS X 10.11上。
NFS客户端通过评估T-Tc <t来重新validation访问时的caching块。 如果失败,它会向NFS服务器发送一个getattr调用,请求相关文件的最后一个Tmodified标记。 AFS在周期性时间T后,在打开或重新启动时重新validation其caching文件。 当这些重新validation呼叫在networking中丢失时会发生什么? 当我们假设使用NFS进行硬挂接时,NFS客户端是否等待getattr调用的回复,或者我们能否跳过这个检查,以便继续工作? 对于AFS同样,它是否阻止等待validation,还是我们可以继续工作?
我们有一个负载平衡的networking应用程序,为NFS挂载的驱动器提供一些映像。 当NFS服务器closures时,最终会导致所有的Web实例closures。 目前,卷的安装有: ip:/path/to/images /docroot/images nfs soft,intr,rw,rsize=32768,wsize=32768 0 0 我对这个卷上的一系列图像进行了攻击testing,当它停止运行时,根据apache超时值(此testing设置为600秒),请求结束超时。 我改变了挂载选项: bg,soft,intr,rw,rsize=32768,wsize=32768,timeo=5,retrans=2,actimeo=60,retry=15 而且这样做还是比较好的,但是还是花了很长时间才能失败:第一组请求在30秒内超时,但是下一组请求在180到300之间。 我知道长期的解决办法是把它们移到S3,但是有可能在不影响性能的情况下把它缩小到5-10s。
目前使用NFS4的地图。 如果我手动更新NFS服务器上的文件“ / sys / module / nfsd / parameters / nfs4_disable_idmapping”为“ N ”并刷新caching,则UID和GID在NFS客户端上正确显示。 问题是在重新启动它似乎改变这个文件回“ Y ” 解决scheme“ 尝试强制服务器上的数字ID:echo”选项nfs nfs4_disable_idmapping =“> /etc/modprobe.d/nfs.conf并重新启动NFS服务器 ”似乎没有帮助。 我什至试过nfs4_disable_idmapping = 0
我有一个nfs客户端无法parsing可parsing的DNS名称的问题。 [root@testserver-2 ~]# host nfs-server-host-name nfs-server-host-name has address 10.37.4.131 [root@testserver-2 ~]# nslookup nfs-server-host-name Server: 127.0.0.1 Address: 127.0.0.1#53 Name: nfs-server-host-name Address: 10.37.4.126 [root@testserver-2 ~]# showmount -e nfs-server-host-name clnt_create: RPC: Unknown host [root@testserver-2 ~]# ss -lnp |grep rpc LISTEN 0 128 *:111 *:* users:(("rpcbind",7627,8) [root@testserver-2 ~]# mount -t nfs -o defaults,auto,proto=tcp nfs-server-host-name:/ifs/exports/EXPORT /mnt/export mount.nfs: Failed to resolve […]
我目前的情况是,我可以使用ldap和pam成功进行身份validation,也成功使用pam_mkdir /home文件系统中的/home目录。 现在我试图实现的是自动创build相同的主目录,但在自动安装的nfs导出上。 自动安装工作正常,并且homes根目录是正确可及的。 目的是避免手动在nfs上创build家园。 我花了两天时间在潜伏,但是我没有把所有的信息合并在一起。 我仍然有这样的问题: 可以pam_mkdir通过nfs创build目录? 如果安装的homespath不是标准的(例如家庭安装到/mnt/nfs/homes ),那么pam_mkdir如何知道? 使用homeDirectory LDAP属性? 我应该在用户创build后触发LDAP服务器上的创build吗? 我是否在解决一个更简单的问题?
在nfs3上,我们有了rpc.mountd ,它logging了很好的消息给syslog authenticated mount request from 192.168.1.11:839 for /mnt/music (/mnt/music) nfs4默认安静。 我希望我可以logging经过身份validation和更重要的未经身份validation的安装请求(包括客户端IP) 我玩过rpcdebug ,尝试所有types的模块和标志,但通常logging太多,客户端IP地址未显示。
我跟着这个线程获取有关读取网卡速度的信息。 我如何validation我的网卡的速度? 我正在使用ethtool来validation我的网卡的速度正如讨论的线程。 :~ # ethtool eth0 Settings for eth0: Supported ports: [ TP ] Supported link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Supports auto-negotiation: Yes Advertised link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Advertised pause frame use: No Advertised auto-negotiation: Yes Speed: 1000Mb/s Duplex: Full Port: Twisted Pair PHYAD: 0 Transceiver: internal Auto-negotiation: on […]