Articles of nfs

automount – autofs在CentOS 6.5上的安装问题

服务器CentOS 6.5和Selinux是宽容的 我的NFS服务器共享/ etc / exports /home/unixmen/ 10.0.0.0/24 (rw,sync,no_root_squash) 在另一个CentOS 6.5主机上运行的客户端,能够正常安装 当我尝试autofs自动挂载,没有任何工作,做了很多谷歌search这个问题,找出根本原因,但不成功。 我想知道如果我正在做一些基本的错误.. 请参阅autofsconfiguration ~]$ cat /etc/auto.master #/net -hosts #+auto.master /misc /etc/auto.misc 和 ~]$ cat /etc/auto.misc unixmen -fstype=nfs 10.0.0.14:/home/unixmen 我没有改变日志级别debugging在/ etc / sysconfig / autofs,后重新启动autofs和日志说 Jun 27 17:20:00 ganeshh automount[12322]: mounted indirect on /misc with timeout 300, freq 75 seconds 不知道这是否与装载问题有关 最近现在,我在日志中获取这些数据 Jun 27 18:11:49 […]

使用不同的UID跨服务器创buildNFS共享

我的networking中有4-5个Ubuntu 14.04服务器,我想在它们之间共享一个通用/home目录。 我已经安装了nfs服务器,我可以在不同的客户端上安装目录。 但是我的问题是用户ID。 示例:nfs 服务器上的用户是UID 1003,但是在另一个nfs客户机1005上的nfs 客户机上,这个用户是UID 1002。 我在解决这个冲突方面有什么select? 我已经有相当广泛的谷歌search寻找select,找不到明确的答案。 我可以将用户从一个UID映射到另一个,还是手动更改所有框的UID? 这是我目前的/etc/exports home 192.168.1.0/24(rw,sync,no_root_squash,no_subtree_check)

ESXi 6.0已停止安装NFS共享

重新启动ESXi 6.0服务器后,将不再装载在Windows Server 2012 R2框中承载的多个NFS共享。 以前这些共享工作正常,但现在任何NFS安装会遇到以下错误: The NFS server does not support MOUNT version 3 over TCP 这很奇怪,因为NFS服务器启用了版本3和4 同样,协议同时启用了TCP和UDP。 防火墙也允许NFS连接。 我对NFS为何无法挂载到ESXi上的原因感到有些遗憾。 据我所知,没有进行重大的configuration更改。 networking设置 两个物理适配器。 一个configuration为故障切换,但是一个子网192.168.1.0/24下的所有stream量与主LAN相同。 没有VLAN或任何复杂的。 存储设置 托pipe在Windows Server 2012 R2服务器上的2TB存储空间镜像。 3以“只读”方式将ESXi主机读/写的NFS共享设置为“所有机器”。 我已经尝试重新启动Windows Server 2012 R2框中的NFS服务器服务,但问题仍然存在。 有任何想法吗?

SAN – NFS和CIFS

我是一名应用程序开发人员,对存储和SAN技术非常新颖,所以这是一个非常基本的问题。 最近我有要求在Linux和Windows上安装公共存储共享。 我向我公司的几位存储人员询问如何做到这一点,得到了一些不同的反应。 我知道使用Samba NFS共享可以在Windows上访问。 这是我的问题。 我们使用Netapp存储arrays,Can SAN创buildNFS或CIFS共享,我以为SAN提供原始存储(如物理硬盘),操作系统会在其上安装文件系统。 如何为Windows用户设置一个通用的共享和控制权限

networking文件共享是否可以使用mdadm Raid-1?

我正在使用64位CentOS 5.5 我知道可以使用物理硬盘和RAM磁盘使用mdadm来设置软件RAID1。 是否有可能使用NFS挂载和RAM磁盘来设置mdadm软件RAID1? 或者用另一种方式来提出这个问题,NFS挂载是否可以成为一个与mdadm一起工作的块设备? 我打算使用–write-mostly选项,以便从RAM磁盘完成读取操作。 好的,这是为什么。 当Apache正在执行写操作时,我需要一个用于我的Web群集的同步共享文件系统。 我已经尝试过GlusterFS,但是需要读取许多小文件的dynamic页面上的性能是不可接受的。 例如,在我的网站上创build一个dynamic注册页面需要5秒钟的时间。 我的理解是,对于任何共享/集群文件系统来说,小文件性能都是不同程度的问题。 如我错了请纠正我。 由于没有什么比RAM更快,因此使用RAM驱动器和NFS挂载的软件RAID1的问题。 这样,我将获得RAM的速度和写入时所需的同步复制。

权限被拒绝,在启用粘滞位的情况下,nfs挂载的目录中的可执行文件符号链接被禁止

我们为我们的任何用户提供NFS导出,用于安装和维护安装在客户端/公共networking上的有用软件。 在NFS服务器上,这个目录是世界上可写的,粘滞位设置(如/ tmp)。 此服务的用户之一在可执行文件中具有/ public的符号链接。 由于我们将工作站从Ubuntu 9.04升级到10.10,因此当我们尝试通过符号链接执行此文件时,我们获得了拒绝权限。 如果我们删除粘性位,我们不会再被拒绝。 我没有在我们的日志或dmesg中发现任何东西。 这是一个应用程序装甲function还是在Ubuntu 9.04和10.10之间引入的一个bug?

iozone基准testing结果解读

我使用iozone版本3.373来testingNFSv4和NBD,但结果iozone ! 它表示,输出是以千字节/秒为单位,但我得到的数值如3,411,938随机读取。 我正在使用10/100以太网networking,使用netperf最大吞吐量大约为96Mbps。 我正在执行以下命令。 iozone -i 0 -i 1 -i 2 -i 8 -a -Rb nbd.xls -g 10M -q 1M

衡量I / O性能悖论

我试图找出正确的方法来获得我的NFS集群的“真实世界”写性能。 NFS导出安装在一个XENpipe理程序上,我从一个虚拟机里运行'dd' 。 我不能决定的是我应该使用O_DIRECT/O_SYNC或不。 如果我不使用它,内核将对RAM进行页面caching,我将最终测量RAM吞吐量,而不是磁盘。 另一方面,大多数(如果不是所有的)服务器应用程序都会使用RAMcaching(我是否有错误的假设?)。 所以我想知道平衡点在哪里, 真实世界中会发生什么?

防火墙后面的NFS客户端挂载失败

我有一个iptables防火墙的Ubuntu 11.10系统。 固定的端口mountd,lockd和statd,然后在iptables中打开它们,我能够通过防火墙公开NFS共享,没有问题。 我遇到的问题是从另一个无法控制的NFS服务器上挂载一个共享。 如果我禁用防火墙, 我可以挂载共享。 我也可以挂载其他NFS共享而不禁用防火墙。 所以这引出了两个问题 : 为什么防火墙会阻止NFS客户端挂载某些服务器而不是其他服务器? 客户端可以指定用于NFS挂载的端口吗? 完整的configuration和错误信息: 根据nfsstat ,服务器是NFSv3。 当我坐山时: # mount -t nfs -v 192.168.80.48:/location /mnt/tmp mount.nfs: timeout set for Fri Mar 23 09:13:00 2012 mount.nfs: trying text-based options 'vers=4,addr=192.168.80.48,clientaddr=192.168.40.173' mount.nfs: mount(2): No such file or directory mount.nfs: trying text-based options 'addr=192.168.80.48' mount.nfs: prog 100003, trying vers=3, prot=6 mount.nfs: […]

Linux读取磁盘caching和NFS

我感兴趣的是读取磁盘caching对通过NFS访问文件的影响。 比方说,我有一个NFS文件。 我从Linux主机“A”访问它(做“猫myfile”)。 如果有足够的RAM,则文件将在磁盘caching中结束。 现在我从主机“B”修改该文件。 主机“A”上的操作系统如何知道它必须使该部分caching无效? 有没有从NFS的callback? 或者磁盘caching过期很快?