Articles of nfs4

运行Ubuntu 11.10的OpenVZ容器中的NFS4客户端?

我有一个托pipe公司OPENVZ内运行的Ubuntu 11.10 VPS。 我试图让它挂载一个使用NFS4的远程NFS服务器,但只能使用版本3工作。我一直在search这个相当多的东西,偶尔我会读一些“NFS4客户端无法在OpenVZ容器中工作“。 我找不到最新的具体答案,所以我会在这里问: 这是真的吗?如果真是这样,那么我就可以停止尝试这个工作! 但是,如果这是可能的,为什么它不工作? 这是我所做的 – nfs-common安装在客户端,nfs-kernel-server安装在服务器上 看到了在客户端上安装nfs-utils的一些说明,但是apt-get找不到这个包 从客户端到服务器的挂载可以使用NFS版本3成功运行 服务器似乎工作正常; 可以从我的桌面上运行的Ubuntu VM使用NFSv4成功安装 但在成功的客户端机器上nfs AND nfs4被列在/ proc / filesystems中,在有问题的那个上只有nfs 据负责工程师介绍,我login了一张票,现在相关模块已经安装在VPS节点上。 他回答说,现在应该是工作,但我认为他可能只是重新启用“标准”的NFS模块(见上面重新:cat / proc / filesystems | grep nfs) $ sudo mount -v -t nfs4 [SERVER_IP]:/ NFS-ARCHIVE / mount.nfs4:pinging:prog 100003 vers 4 prot tcp port 2049 mount.nfs4:没有这样的设备 $ sudo mount.nfs [SERVER_IP]:/ / NFS-ARCHIVE / […]

NFSv4虚拟根目录下的符号链接

我的意图: 使用/exports作为我的虚拟根NFSv4 通过NFS导出dir /my/dir 所以我创build了一个符号链接/exports像这样的/exports # ln -s /my/dir /exports/dir 和我的/ etc / exports看起来像: /exports *(async,rw,fsid=0,no_root_squash,insecure,no_subtree_check,crossmnt) 当我使用以下方法从客户端挂载 # mount -t nfs4 192.168.1.52:/dir /mnt 我得到以下错误信息: mount.nfs4:挂载192.168.1.52:/dir失败,服务器给出的原因: 无此文件或目录 据此应该工作。 任何想法?

NFS问题:客户端可以将共享挂载为NFSv3而不是NFSv4 – 或者如何debuggingNFS?

问题描述 我有一个运行Debian的文件服务器。 在这上面我有几个NFS共享。 当我使用NFSv3(mount.nfs 10.0.0.51:/exports/video/mnt -o vers = 3,soft,intr,timeo = 10)从客户端挂载共享时,它可以工作。 但是,由于安全性和性能的提高,我想使用NFSv4。 当我尝试在malbec上挂载一个NFSv4共享时,mount命令会挂起,最后在2分钟后超时。 如何让客户端将NFSv4共享挂载为NFSv4? 如何解决NFS问题? 系统日志中没有客户端和服务器上的信息。 我的configuration有什么错误? 事实 : 服务器是corvina(10.0.0.51) 客户是malbec(10.0.0.1) 马尔贝克运行的Ubuntu 12.04服务器运行Debian 7 wheezy 两者都通过1 GbE LAN连接。 防火墙closures。 rpcinfo将 (root@malbec) (13-07-02 21:00) (P:0 L:1) [0] ~ # rpcinfo -p program vers proto port service 100000 4 tcp 111 portmapper 100000 3 tcp 111 portmapper […]

如何在NFSv4.1中使用pNFS

据我所知, pNFS是NFSv4.1的扩展协议。 所以,我有两个问题: 如何在NFSv4.1使用pNFS ? 服务器端对内核版本有特殊要求吗?

NFSv4通过portforward

我想通过端口转发到达我的NFSv4服务器。 这个大计划将是在本地主机上运行的HAProxy负载平衡的NFSv4服务器集群。 但现在这并不重要。 在服务器上, /etc/exports看起来像这样 /mnt/x 192.168.0.0/16(rw,sync,no_subtree_check,no_root_squash,fsid=1) 我可以从我的客户端连接到TCP 2049上的服务器,并像这样安装共享 mount -t nfs4 -o proto=tcp,port=2049 192.168.2.25:/mnt/x /mnt 我testing了NFVs4很高兴只有这一个TCP端口打开通过过滤两台机器之间的所有其他通信。 所以我认为NFS运行良好。 但是,当我转发一个端口例如与客户端的redir到服务器 redir –lport=3049 –cport=2049 –caddr=192.168.2.25 并想要如下安装它 mount -t nfs4 -o proto=tcp,port=3049 127.0.0.1:/mnt/x /mnt 我明白了 mount.nfs4: Operation not permitted 我想念什么? 我在服务器日志中看不到任何相关的信息。 更新:我捕获了好的和不好的连接尝试,一开始他们是相同的,然后客户端发送一个 PUTROOTFH,GETFH,GETATTR 命令。 在好的情况下服务器响应 PUTROOTFH-NFS4_OK,GETFH-NFS4_OK,GETATTR-NFS4_OK 在不好(转发)的情况下,它回应 PUTROOTFH-NFS4_OK,GETFH-NFS4_OK,GETATTR-NFS4ERR_PERM 这一点我改变了出口 /mnt/x 0.0.0.0/0.0.0.0(rw,sync,no_subtree_check,no_root_squash,fsid=1) 但是错误是一样的。 在好的情况下,服务器日志是 rpc.mountd[1711]: nfsd_export: inbuf '0.0.0.0/0.0.0.0 /' […]

nfs4和kerberos:错误的请求主体

我的客户端/服务器都运行Ubuntu 14.04,Kerberos用户身份validation按预期运行。 普通的nfs4坐骑也能正常工作。 所有机器都运行heimdal库。 我一直没有能够得到kerberized nfs4工作。 安装共享时,我在日志中获得以下条目: NFS4服务器: Jun 22 11:25:13 SERVER rpc.svcgssd[7349]: leaving poll Jun 22 11:25:13 SERVER rpc.svcgssd[7349]: handling null request Jun 22 11:25:13 SERVER rpc.svcgssd[7349]: svcgssd_limit_krb5_enctypes: Calling gss_set_allowable_enctypes with 7 enctypes from the kernel Jun 22 11:25:13 SERVER rpc.svcgssd[7349]: WARNING: gss_accept_sec_context failed Jun 22 11:25:13 SERVER rpc.svcgssd[7349]: ERROR: GSS-API: error in handle_nullreq: […]

小型局域网Linux文件服务器和networkingdevise

我们有一个小型的局域网,有几十台桌面客户端电脑和一台文件服务器。 我们的目标是使客户端PC能够拥有文件服务器上的所有存储以及文件I / O操作,使其感觉就像存储仍然是本地的。 大多数文件操作涉及打开/保存less于6 MB的文件。 典型的文件是电子表格(平均1.6 MB),图像(平均5.5 MB),audio(MP3,5 MB平均)和小的纯文本文件。 但是,我们的工作人员之一正在进行audio和video编辑,其中audio文件平均为200 MB,video文件可能只有几GB。 我们的目标是将所有文件存储在文件服务器上,以便可以正确备份等等。 这是我们的设备: 开关:HP Procurve 1820-48G J9981A 文件服务器:通过英特尔®i210(主板:SUPERMICRO MBD-X10DAL-IO ATX服务器主板/ Intel C612)的双GbE LAN端口 局域网:用于较短路线的CAT 5E布线; CAT 6屏蔽更长时间的运行 客户端:具有千兆网卡的Linux桌面。 所有系统运行Arch Linux或Kubuntu LTS(目前是14.04和16.04)。 协议:NFS v4 我们可以用尽可能多的RAM或处理能力或其他组件来加载文件服务器(在合理的范围内)来实现我们的目标。 但是我们不知道性能瓶颈在哪里。 (我们不知道如何正确处理这个问题,因为我们几乎没有networking经验。) 其中一个想法是在文件服务器上进行网卡绑定,类似这样: 另一个想法是分别使用两个文件服务器NIC,并将与大型媒体文件一起工作的客户端PC连接到一个地址,将其他所有人连接到另一个地址。 底线:我们需要有关服务器要求和networkingdevise的build议。 请指出我们正确的方向! 谢谢

来自OSX的Amazon EFS Mount

先生们,我遵循这个优秀的职位的指示,但没有连接。 弹性文件系统(EFS)在AWS之外安装 我在一个Mesos集群中使用CoreOS。 我们有一个EFS连接到集群中的所有节点,以便他们可以共享数据,脚本等。我们有一个到AWS VPC的VPN隧道,所以我们可以从办公室连接。 我的用户想上传一些脚本到EFS,并得到计算结果,所以他们想在本地安装NFS。 所以我按照上面的文章推荐haproxy。 sudo docker run -d –net=host haproxy /bin/bash -c "echo -e 'listen fs-1e7bb658-us-east-1\n bind :2049\n mode tcp\n option tcplog\n timeout tunnel 300000\n server fs-1e7bb658-us-east-1a us-east-1a.fs-1e7bb658.efs.us-east-1.amazonaws.com:2049 check inter 60000 fastinter 15000 downinter 5000' > /haproxy.cfg && haproxy -f /haproxy.cfg" configuration是这样的情况下,它不明确: listen fs-1e7bb658-us-east-1 bind :2049 mode tcp option tcplog timeout tunnel […]

NFS4:对/etc/idmapd.conf有什么影响?

我们一直在解决在我们的RHEL6.3客户端上的NFS4挂载显示文件所有权为“nobody”的问题,以及我们在哪里看到“nss_getpwnam:name'blah'没有映射到/ var / log /消息。 我们知道修正是为了确保服务器上/etc/idmapd.conf文件中的域与客户端上的域匹配。 问题是这样的: 如果我们在客户端上修复域名,我们需要重新启动它们才能看到它的工作。 不重新启动nscd,nfs,rpcbind,rpcgssd,rpcidmapd或rpcsvcgssd将启用此修复程序。 这些工作也不会与分区的挂载/挂载协同工作。 事实上,在我们解决了我们的问题并重新启动客户端后,我们closures了rpcidmapd,正确的名称映射仍然在机器上发生。 为什么我们需要重新启动机器来启用idmapd.conf更改为域? 内核持有什么东西? 谢谢。

如何在NFS服务器上自动创build目录?

我创build并configuration了3个虚拟机的testing环境: 提供krb5authentication的FreeIPA服务器 使用服务器1来保护自己的NFS服务器 从nfs服务器上自动安装主目录的客户端 问题是,当我添加一个用户到我的kerberos域(在这种情况下使用FreeIPA web界面),我仍然必须连接到文件服务器为用户创build一个主目录。 无可否认,这是一个简单的过程,但它增加了用户创build过程的复杂性,使我无法将任务委派给非技术人员,因为我必须授予他们访问文件服务器的权限。 我的第一个想法是创build一个cronjob,提取用户列表并创build失踪的家园。 问题在于,在创build帐户不工作的时间之后,这会造成麻烦。 TL; DR:在独立的NFS服务器上自动创build用户特定的目录(家)的最佳做法是什么?