Articles of nfs

如何在Linux上的NFSv4挂载上使用POSIX ACL?

我最近从仅提供NFS v3的Linux文件服务器过渡到也提供了NFS v4。 我们所有的客户都开始自动使用NFS v4。 不幸的是,由于他们习惯使用的POSIX工具不再有效,所以这使得less数使用它们的用户有效地破坏了ACLpipe理。 (更糟糕的是, ls不再指出具有ACL的文件,所以它们比以前更隐蔽)。 由于我们的存储系统改变了软件,所以我不希望学习新工具的用户被推迟了(另外文件服务器实际上是将ACL作为POSIX ACL存储在磁盘上,所以过渡到NFSv4 ACL感觉有点傻,每个涉及Linux系统运行的系统是什么)。 我可以强制客户端为不想学习NFSv4 ACL的用户使用NFS v3,但是有没有办法运行NFS v4客户端,但有POSIX ACL程序? 最好不要偏离分配的标准储存库太远。 客户端正在运行Fedora。 (目前他们使用的是Fedora 23,但是他们升级了很多,Fedora每六个月发布一次。)服务器在Linux上运行Scientific Linux 7和ZFS。

适用于小型networking的良好NFSconfiguration(NFS性能问题)

我有一个小的局域网,有几个Linux的盒子(Ubuntu 9.10)与他们的NFS共享。 这些盒子与消费级Netgear路由器(型号WGR614V9)联网,并使用有线连接。 当我第一次创buildNFS共享时,我注意到性能非常糟糕。 例如,将需要几分钟的时间才能将40 MB的数据从挂载的NFS共享复制到本地磁盘。 通过玩弄NFSconfiguration,我能够让事情运行得相当好。 我为系统导出份额而定下的configuration是: # /etc/exports On the machine exporting the NFS share: /exprt/dir client.ip (rw,async,no_root_squash,no_subtree_check) 对于NFS客户端,我有 # /etc/fstab server.ip:/exprt/dir on /imprt/dir type nfs (rw,noatime,rsize=32768,wsize=32768,timeo=14,intr) 但是,虽然这似乎对我来说工作得相当好,但使用scp将文件从一个系统复制到另一个系统似乎比使用NFS更快。 我认为值得问一下其他人可能在类似的networking设置上使用哪些NFSconfiguration,从而获得相当好的性能。 我知道NFS可以非常敏感的select操作系统和精确的networkingconfiguration的东西。 但是,我怀疑我的设置与其他小型本地networking用户相当普遍,因此,听听哪些configuration对他们来说最好。 注意:我最初以超级用户的身份提出这个问题。 但是,我没有得到任何答复,所以我怀疑这种问题可能是错误的论坛。

无法挂载nfs卷 – 超时

我有一个Linux文件服务器,用于安装罚款NFSv3导出。 文件服务器不得不停机进行硬件维护。 将服务器备份后,Linux客户端不能再挂载nfs导出。 服务器或客户端上的configuration没有改变。 我做了一个软件更新,并在第一次安装失败后重新启动客户端,但没有帮助。 [root@client ~]# showmount -e ark Export list for ark: /mnt/bigraid * [root@client ~]# mount -t nfs ark:/mnt/bigraid raid 这只是挂在这一点上。 在另一个terminal… [root@client ~]# dmesg | tail [ 2526.676437] nfs: server ark not responding, timed out [ 2529.183107] nfs: server ark not responding, timed out [ 2531.689778] nfs: server ark not responding, […]

OpenLdap在客户端和服务器之间同步主目录

我最近在karmic和lucid桌面客户ldap client authentication上设置了Ubuntu ldap client authentication ,ldap服务器在10.04 LTS服务器上运行, 这是我为客户端设置所遵循的链接,可能这也适用于11.04。 我可以使用ldap用户帐户login到客户端,而且在客户端上,我使用了一个inputsession required pam_mkhomedir.so umask=0022 skel=/etc/skel在pam.d / common-session中自动创build主目录在客户端计算机上当用户第一次login时。 我想有一种方法可以将客户端的主目录同步到服务器,反之亦然,这样用户就可以将他们的文档login到客户端。 我有下面的任务需要完成: 同步客户端和服务器之间的主目录(就像在Windows中的漫游configuration文件)。 我尝试使用autofs但问题是与客户端计算机上的本地用户帐户(pipe理员,来宾),也被同步或覆盖(我不希望他们挂载)当我把条目* server:/ldaphome/&在/etc/auto.home中获得ldap用户的主目录同步(在/etc/autofs.master包含entry /home /etc/autofs.home /etc/autofs.master )。 任何人都有任何诡计可以做到这一点或以任何其他方式,以便我可以login到客户端同时使用ldap和本地用户凭据的主目录为ldap用户同步? 我知道很多大师在这里,他们的风格怎么会这样呢? 更新:1 我尝试在客户端上的其他目录(ldaphome)以外的其他目录autofs automounting,我试图链接在同一客户端上的ldaphome/$USER和home/$USER ,以便当服务器上的ldaphome在客户端上挂载ldaphome时,用户的主目录home / $ USER将由于符号链接而同步。 所以我编辑了/etc/profile.d/custom.sh文件,并在login时将ln -sf "/ldaphome/$USER" "/home/$USER"链接到这些目录。 我意识到符号链接不能按预期的方式工作,因为它在/ home / $ USER / $ USER下创build链接名称。 DROPPED THIS SYMLINK METHOD! 更新:2 除了在客户端更改本地用户的主目录,并在autofs自动安装home目录,但是我打算保护的客户端上的同一本地pipe理用户也可以作为服务器(admin,guest)上的用户帐户使用, … 更新:3 我妥协只是将已经存在的本地用户帐户( […]

服务器负载高,CPU空闲。 NFS的原因?

我遇到了一个场景,我看到一个高服务器负载(有时20或30以上)和非常低的CPU使用率(98%空闲)。 我想知道是否这些等待状态是作为NFS文件系统连接的一部分。 这是我在VMStat中看到的 procs ———–memory———- —swap– —–io—- –system– —–cpu—— rb swpd free buff cache si so bi bo in cs us sy id wa st 2 1 0 1298784 0 0 0 0 16 5 0 9 1 1 97 2 0 0 1 0 1308016 0 0 0 0 0 0 0 3882 4 […]

打开文件可以在NFS装入的卷上取消链接,而仍然有打开的应用程序可以读/写?

NFS是否允许我像本地文件系统一样可以取消链接/删除打开的文件? 我问的原因是我正在开发一些在多台服务器上运行的东西,并可能会将NFS作为后端进行访问。 如果我可以在打开的文件上取消链接,它可以简化一些事情。 这是linux(unix?)文件系统的一个很好的function,您可以取消链接已打开的文件。 它只是删除目录条目。 只要文件处于打开状态,该文件仍然可用。 一旦closures,inode就会被销毁。 这种相同的function是否适用于NFS挂载的文件?

确定超大型数据集的磁盘空间使用率和文件数量(任何技巧?)

长时间的读者,首次提问: 我是初级Linuxpipe理员,他们越来越多地支持本地和NFS存储上非常大的数据集/存储。 数据通常是以任意名称的大量文件夹和文件树的forms。 为了举一个这个挑战的例子,我正在处理20多个包含数十万个嵌套目录和数千万个文件的TB分区。 由于这些分区/出口是共享资源,我通常不得不在空间或inode耗尽时发挥侦探作用,以确定哪些文件夹是最大的罪犯。 我发现'du-s'太慢了,而且手动做这个工作,希望看看别人用什么技巧来确定最大或者最多的文件数dir是非常大的分区。 我关心的唯一操作系统是RHEL 5/6,所以任何标准CLI Linux工具的混合都是好的。 谢谢!

如何获得体面的NFS性能工作负载像git?

我pipe理运行OSX的开发vagrant设置来pipe理VirtualBox系统进行开发。 为了支持linux机器内部的inotify ,我们避开了使用VirtualBox共享目录的常用方法:相反,Virtualbox机器公开了一个安装在OSX中的NFS共享。 Git(和相关的工具,如sourcetree)在OSX中的共享目录中运行。 这种性能非常差:运行git status通常需要5秒钟的时间。 将小型资源库克隆到已安装的NFS驱动器中可能需要几分钟的时间(本地驱动器需要5-10秒)。 很明显,NFS的性能会比直接写入本地SSD的性能要差,但是NFS只是通过Virtualbox的虚拟专用networking接口运行。 我跑了几个基准。 首先: dd if=/dev/zero of=test bs=16 count=16384 每个结果都基于100个样本。 # local drive Min. 1st Qu. Median Mean 3rd Qu. Max. 0.990 1.000 1.020 1.021 1.030 1.130 # on the shared NFS drive Min. 1st Qu. Median Mean 3rd Qu. Max. 6.000 6.278 6.390 6.482 6.570 7.630 # inside […]

搞清楚为什么我要通过硬盘配额

我吮吸系统pipe理,所以如果我得到一些基本的错误,请让我知道。 这是让我疯狂的东西。 在工作中,我们有一个大型的NFS服务器,为我们公司的所有员工提供服务。 每个人都有一定数量的GB被允许写入。 我经常得到“超出配额”的错误,因为我运行了一些程序,这些程序产生了大量的临时文件,然后删除它们,但是在它们删除它们之前,它们达到了配额。 在与我们的系统pipe理员交谈之后,我了解到,我的配额已经增加到超出了我对这些testing所需要的范围,但是似乎我将这个配额用于除家庭文件夹以外的其他位置。 系统pipe理员向我解释说,NFS服务器中的所有者拥有我的用户名的每个文件都会占用我的配额。 我想得到这些文件的列表,所以我可以删除很多我不再需要的文件。 但他告诉我,唯一的办法就是search整个公司的整个文件系统,浏览每个人的家庭文件夹。 即耗时的过程。 他现在正在做这个search。 对我来说听起来很奇怪的是:当Linux给我一个“超出配额”的错误,它似乎能够立即知道我要超过我的配额。 不是一个耗时的过程。 那么,为什么我无法获取与我的配额相关的文件列表,而无需进行长时间的search?

通过SSH隧道保护NFS

我正忙着读http://nfs.sourceforge.net/nfs-howto/ar01s06.html试图了解为什么本地主机导出不好,当我到了“6.4。通过SSH隧道NFS”部分。 这一节中的所有内容都是导出本地主机时可能存在的一个安全漏洞,因为它允许其他人ssh端口转发并访问共享。 这是我的问题,如果用户能够连接到可以连接到NFS服务器的计算机,那么如何防止ssh隧道破坏系统的安全? 例如,想象计算机A( 192.168.1.1 ),B( 192.168.1.2 )和C( 192.168.1.3 )。 设A是具有以下导出文件的服务器: /home 192.168.1.2(rw) 正如您所看到的,A正在授予B权限来使用/ home共享。 现在,让C ssh到B与: $ ssh 192.168.1.2 -L 250:192.168.1.1:2049 -f sleep 60m $ ssh 192.168.1.2 -L 251:192.168.1.1:32767 -f sleep 60m 看起来A的出口给B的股票很容易受到任何人的支配。这是这种情况吗? 除了简单地确保任何可以loginB的人都是非常值得信赖的用户,有没有一种方法可以防止这种情况呢?