我有一个在Ubuntu 12.04LTS上运行的v4 NFS服务器。 它是四个外部nginxnetworking服务器为网站访问者提供服务的Web资产的主要存储库。 这些客户端服务器通过只读安装连接到它。 每个RO服务器在检查坐骑时都会显示: 10.0.0.90:/assets on / var / www / assets type nfs4(ro,addr = 10.0.0.90,clientaddr = 0.0.0.0) NFS主服务器的/ etc / exports文件包含每个服务器的这样的条目: / mnt / lvm-ext4 10.0.0.40(ro,fsid = 0,不安全,no_subtree_check,asynchronous) 我看到的问题是,这些客户端最终将利用NFS服务器上的所有内存,并导致其崩溃。 如果我watch free -m我可以观看使用过的内存,直到它被使用,然后在服务器最终locking需要重新启动之前,看到空闲缓冲区/caching项目蠕变到接近零。 有一些内存泄漏导致这种情况,最佳的解决scheme是find它并修复它,但同时我需要find一种方法让NFS服务器保护自己免受连接的客户端使用它的所有内存。 必须有某种设置来限制客户端可以使用的资源,但我似乎无法find它。 我已经尝试调整rsize和wsize的值,但他们似乎没有帮助或相关。 感谢您的任何提示。
我想弄清楚我的NFSv3部署是否正在执行SAFEasynchronous写入。 我怀疑这是严格的同步写入,因为我的performance一般不佳。 我使用Wireshark来查看写入调用中的“稳定”标志,并查找“提交”调用。 我注意到,在特别大的块大小下,写入似乎是asynchronous执行的: dd if=/dev/zero of=/path/to/share/zero bs=2097152 count=512 但是,更小的块大小似乎是严格同步执行的: dd if=/dev/zero of=/path/to/share/zero bs=8192 count=655360 是什么赋予了? 客户端如何决定是否告诉服务器同步或asynchronous执行写入? 有什么办法可以让更小的块大小asynchronous执行? 编辑:这是客户端上的/ etc / fstab的内容: server:/path/to/share /path/to/share nfs rw,intr,sync,proto=tcp,vers=3 0 0
我在客户端服务器(CentOS 6.3)上通过NFS挂载了一个xfs文件系统(在Centos 6.4服务器上)。 我似乎无法从客户端访问配额信息。 它只是不返回任何xfs_quota -c quota …或xfs_quota -xc report …或xfs_quota -c print 我需要用户能够从这个客户端(一个簇头节点)检查他们的配额,但我不使用这个FS的用户配额,而是项目配额。 有什么想法吗? 谢谢。
我在RHEL5.6和作为NFS服务器的Solaris6框之间有一个挂载。 我的安装选项只是rw,intr 。 当我从networking上断开RHEL linux盒子时,我仍然能够将文件等写入到我的Solaris机器上。 断开连接后,我映射networking,当然什么也没有显示出来,但是当我重新连接和重新映射时,一切都显示出来了。 断开连接时,我写入到Solaris盒子上NFS文件的新文件仍然存在。 在我的系统中是否有一个巨魔,或者我不明白NFS?
我有NFS服务器,作为一个局域网中的一般文件pipe理器。 最近由于磁盘故障,我失去了一切,所以我得到了新的磁盘,重新安装最新的Debian(jessie),复制回configuration文件 – 和NFS不再工作?! 我的/ etc / exports包含: /media/media *(rw,sync,no_subtree_check,all_squash,anonuid=31244,anongid=31451) /media/private *(rw,sync,no_subtree_check,all_squash,anonuid=16830,anongid=10818) 我做了几次重启,/etc/init.d/nfs-common restart,/etc/init.d/nfs-kernel-server restarts。 在客户端,我有,在/ etc / fstab: 172.28.173.1:/media/media /media/MEDIA nfs rsize=8192,wsize=8192,timeo=14,soft,intr,rw,user,noatime,nodiratime 0 0 172.28.173.1:/media/private /mnt/nfs/private nfs rsize=8192,wsize=8192,timeo=14,soft,intr,rw,user,noatime,nodiratime 0 0 挂载文件系统时,挂载命令需要很长时间,并且不会打印任何内容。 稍后运行“df”会显示: df: '/media/MEDIA': Stale NFS file handle 在客户端的系统日志中,我看到: 2013-12-18T15:27:08.319605+01:00 h3po4 kernel: [ 363.398977] RPC: AUTH_GSS upcall timed out. 2013-12-18T15:27:08.319619+01:00 h3po4 kernel: [ 363.398977] […]
我有两台机器访问同一networking(OVH)上的NAS,当我尝试从机器2读取数据时,在机器1中更新或创build一些文件,并且无法访问,甚至几秒钟内不可见。 经过一番研究,我find了一个解决scheme,把/etc/fstab actimeo改为1,我看到这个参数改变了4个参数,控制文件和目录caching为1秒。 我不知道是否减less这个caching过期是安全的,因为一些默认参数接近60秒。 任何人都可以添加更多的信息,并解释是否安全,以减less它? 添加noac选项会更好吗?
我有一个基于Ubuntu的服务器,为许多用户提供SMB访问。 有什么办法可以pipe理共享和用户权限,而不必每次都更新smb.conf? 我没有在这个设置中使用LDAP。 这不是我必须编辑smb.conf的问题,而是尝试自动化这个过程。 我有一个自定义的Web应用程序,允许此应用程序的用户创build,修改和删除Samba共享和用户。 然而,目前实现的方式涉及使用许多脚本,根据需要自动修改smb.conf。 我在想,还有更好的办法。 如果不是的话,那么Samba可以提供相同的SMB服务吗? 任何想法将不胜感激。
我正在尝试备份几个目录(数百万个文件)和一些(一千个左右)的特殊字符。 例如,源文件是'78192-File Name ? Name File.pdf' '78192-File Name ? Name File.pdf'和rsync返回rsync: recv_generator: failed to stat "/backup/homedirs/site/public_html/downloads/78192-File Name \#226 Name File.pdf": Input/output error (5) 我们如何复制这些文件而不更改文件名?
我们有一个服务器可以导出两个分区,一个是61TB,另一个是28TB,而另一台机器上有很多用户正在读写这些分区。 我们有单独的用户抱怨这些坐骑自动卸载和重新安装,这会破坏像MATLAB工作正在进行的东西。 我问人们抱怨给我一个时间框架,同时已经设置好了在过去的几个小时内运行nicstat -i eth0 3 (每三秒钟检查一次网卡的使用情况),并打算让它继续运行。 我将结果写入日志中,以便我可以检查它们,并希望在意外/不受欢迎的卸载发生时与它们进行交叉引用。 用户还没有回到我身边。 基本上我在很长一段时间内快速浏览了nicstat的结果,有两件事对我很重要,但我不确定它们是否可以被认为是正常的。 每隔两个小时左右,活动就会突然减less : Time Int rKB/s wKB/s rPk/s wPk/s rAvs wAvs %Util Sat 21:13:04 eth0 48057.5 30790.5 35560.6 23086.0 1383.9 1365.7 64.6 0.00 21:13:07 eth0 5438.7 12064.3 4697.4 8237.9 1185.6 1499.6 14.3 0.00 21:13:10 eth0 2.98 0.09 8.67 1.33 351.7 66.00 0.00 0.00 21:13:13 eth0 0.87 […]
我正在设置我的机器以连接到我工作的地方的networking共享资源(有NFS共享和SMB共享)。 此访问只能通过VPN进行。 所以我的问题是,有没有办法让OSX试图自动挂载NFS或SMB共享,如果它通过VPN连接?