我正在尝试把新旧混在一起。 我读过,有一些nfs参数,你可以调整,以提高稳定性和兼容性。 我根本不关心速度,对于稳定和兼容的nfs设置,最佳设置是什么? 我有四个Sun Ultra 5机箱与nfs共享文件夹,完全没有问题。 我正在尝试分享和从红帽EL3框挂载。 这里有主要的问题。 在Linux方面,共享将被卸载,但如果在Solaris端重新启动nfs.server,则可以重新安装共享。 更糟糕的是,有时在启动时尝试挂载Linux共享时,Solaris nfs会挂起,从而导致无法启动。 RH盒由不同的部门所有,所以在太阳方面的改变对我来说会更容易。
我目前有一个NFS挂载 website.com:/var/sites/backups0 /mnt/backup nfs rsize=8192,wsize=8192,timeo=14,intr 问题是,这将挂载777权限,我希望它是700,目录设置为700。 dmask和dir_mode都是无效的选项,手册页也没有提及模式权限。 我如何将其locking到700根访问权限?
我想强制NFS使用我在防火墙上打开的特定端口。 它似乎随机selectUDP端口,TCP端口是静态的。 我如何locking在UDP端口,所以我不打开一系列的端口? mount /mnt/backup mount: trying 127.21.164.236 prog 100003 vers 3 prot tcp port 2049 mount: trying 127.21.164.236 prog 100005 vers 3 prot udp port 57917 我看到很多有关设置NFS的信息,但似乎并没有在如何强制特定的端口上缩小范围。
我有一个刚刚离线的EC2实例(甚至无法ping通),但仍然反映为可操作。 为了检索存储在附加EBS上的数据,我做了一个强制分离安装的卷,启动了一个新的实例,并试图连接EBS卷。 但是,我不断收到一个错误 – mount: Stale NFS file handle 每当我这样做。 我是否丢失了所有的文件?
我有一个本地的Ubuntu开发Web服务器和Mac客户端,我用它来访问和编辑文件。 我试图在我的Ubuntu服务器上设置NFS,以便我可以从我的OS X客户端访问虚拟服务器目录。 我遇到了正确获取权限的问题,以便我的Mac用户可以写入虚拟服务器的public_html目录。 我已经做了一些阅读,似乎你必须匹配服务器上的文件的GUI和UID与Mac上login用户的能够读/写。 这种情况是有道理的,这意味着Unix服务器认为我和原来的所有者是同一个用户。 为了这个工作,我认为需要每个虚拟服务器拥有相同的所有者和/或同一组,否则我想我将不得不在我的Mac客户端上设置一个新用户,每次我想编辑一个新的站点。 我当时的想法是,我可以将所有虚拟服务器分配给同一个所有者和组。 然后,我所要做的就是确保用户的UID和GID与我的Mac用户相匹配。 说实话,我从来没有真正理解Unix的权限,所以这可能是完全错误的。 但我真的需要能够通过我的Mac客户端上的NFS读/写所有的虚拟服务器。 任何帮助将不胜感激。
我在服务器上创build了一个共享的NFS资源,并在我的客户机上共享和映射。 我的问题是,即使我已经在服务器的/ etc / exports中定义了这个共享 /share xx.xx.xx.xx/24(rw,no_root_squash,async) 文件是以只读方式创build的。 我做错了什么? 不知怎的,NFS在服务器端知道我的ID,即使它不同于客户端,这是否适用于任何人? 我也想分享用户定义的访问权限,但这不是优先权。
我重新启动服务器后,NFS有一个奇怪的情况。 在启动之前,我可以从我的客户端机器访问NFS挂载,没有问题,但突然间我看不到正确的内容。 例如,我触摸:在客户端编辑一个文件,但去服务器,我看不到那里的文件。 我的主目录内容在客户端也不再可见。 发生了什么? 我以为我已经把所有东西都装上了,就像我在开机前一样。 绑定似乎是正确的在服务器端和装载服务器:/ dir / dir的作品。 / etc / exports看起来像这样: /share 10.0.0.0/24(rw,no_root_squash,async) 编辑:我忘记说,当我在客户端安装该目录时,目录中有一些东西,但在服务器端不一样(和变化是不可见的,如我所说的)。 这是请求的文件。 客户端fstab: my.server.com:/share /share nfs rsize=8192,wsize=8192,timeo=13,intr 不过,我还没有启动客户端。 服务器端fstab: /home /share/home none bind 0 0 我一直在使用这个职位的信息: http : //ubuntuforums.org/showthread.php?t=249889解决这个问题。 我注意到的一件事是即使在客户端上安装了nfs-common,在任何地方都没有nfs-common init脚本。 我想这是因为我正在运行Lucid Lynx。 编辑2:这可能是用户权限的问题? 我在客户端和服务器中有不同的用户名,NFS如何确定我拥有的权限?
想象一下,如果你有一个2节点的红帽NFS群集, 每个节点都是RHEL5.4 64位,它们共享数据的SAN LUN。 每个服务器上的主接口都是HA故障转移绑定(bond0,eth0 + eth1),并且NFS有一个标准的浮动群集资源IP。 群集configuration使用标准的红帽工具进行设置,NFS在/ etc / sysconfig / nfs中定义了静态端口,以便通过防火墙工作。 到目前为止这么好,对吧? 非常靠书,最佳实践 – 在服务器或群集设置中使用的并不是什么奇怪的或奇怪的东西。 问题的核心是客户端使用TCP来挂载导出的NFSv4共享; 在一个集群服务重定位到另一个节点上,新被动节点保留了一个2049 / tcp(nfs守护进程)ESTABLISHED连接,使用现在丢失的集群IP给客户端,尽pipe这在技术上是不可能的(据我所知)。 “解决scheme”是从客户端挂载时转移到使用UDP,因为我们无法弄清楚发生了什么(更重要的是如何解决这个问题)。 任何线索,为什么欢迎,细节如下。 Cluster IP: 1.1.1.10 Client IP: 2.2.2.100 从节点-A开始,NFS服务正在运行,节点-A的集群IP别名为bond0:0,并挂载了SAN。 NFS客户端通过NFSv4 TCP连接到集群IP,事情正常。 在我们的节点-A的netstat中,我们看到: 1.1.1.10:2049 2.2.2.2.100:915 ESTABLISHED 一切都是应该的。 在节点-A上运行标准的“ clusvcadm -r nfs-svc -m node-B ”命令将NFS移动到节点B; 在节点A和节点B的系统日志中,您都可以看到适当的消息 – NFS正在停止,IP被释放/移动,SAN卸载/挂载等等。 在NFS客户端上,你会看到一些关于NFS服务器没有响应的系统日志消息,那么它会回来,一切都很好。 基本上,NFS重新定位到节点B工作正常。 但是 ,回到不再拥有集群IP 1.1.1.10的节点A上,您仍然可以在2049年的netstat中看到一个连接! 一个快速的' rcpinfo -p […]
我正在考虑使用Rackspace CloudFiles与JungleDisk或The Planet的CloudStorage来构build一个需要快速读取性能的web应用程序来处理非常大的video文件。 应用程序使用一些身份validation后端,通过nginx前端x转发要提供的文件。 这个设置要求文件存储在一个挂载的目录下,这正是我所了解的JungleDisk为Rackspace Cloudfiles所做的,以及The Planet的CloudStorage本身所做的。 JungleDisk主要作为备份工具进行销售, 可作为挂载驱动器使用,而The Planet将其云存储作为“无限存储”进行广告宣传,本地挂载为NFS。 一个陈旧的StorageCloud白皮书对他们的性能做出了一些非常大胆的声明,其速度和稳定性都要快许多倍,但这并不是一个无偏见的来源。 有没有人有类似的情况下有任何经验,并有任何关于这个问题的见解? 谢谢!
在尝试build立一个高度自定义的定期文件夹同步设置,用于将XP机器上的目录同步到远程(debian)盒子上的NFS导出,我已经变得…沉思了,而且第二次猜测自己(部分是因为我更像一个开发人员而不是系统人员,而且你不知道你不知道什么,你知道吗?)。 networking被认为是非常不可靠的,networking带宽很高 ,这些文件可能相当大。 我无法控制导出或托pipe它的远程机器(所以我不能在那里设置某种自定义守护进程),但是我可以在XP端做我想做的那么多的计算。 我提出的解决scheme是比较文件大小(本地L字节,远程R字节),并且只向每个文件附加发送(LR)字节(即仅发送delta)。 我的问题是双重的: 1)我不想重新发明轮子。 有一个更好的,标准的方式,我可以可靠地执行此操作? 因为我不确定我是否真的想要#2的答案;) 2)如果这听起来像是一个很好的解决办法,还有什么比这更好的边缘案例,需要注意的事情等等。 先谢谢你!