Articles of nfs

nfs4 id->用户端不工作

情况是nfs4服务器和客户端使用rpc.idmapd映射ids。 id映射在客户机上处理从服务器提供的现有文件。 在服务器上: [root@server ~]# id user1 uid=500(user1) gid=502(user1) groups=502(user1) [root@server ~]# ls -l /mnt/san/temp total 0 -rw-r–r– 1 user1 user1 0 Aug 27 11:46 test1 [root@server ~]# ls -ln /mnt/san/temp total 0 -rw-r–r– 1 500 502 0 Aug 27 11:46 test1 在客户端: [user1@client ~]$ id user1 uid=504(user1) gid=506(user1) groups=506(user1) [user1@client ~]$ ls -l /mnt/san/temp […]

与断开连接的操作交叉同步主目录(Linux / Ubuntu)

这是我正在努力工作的场景。 我有三台机器,J,T和R需要最终得到相同的数据(稍有暂时的差异是好的)。 J和T是每天打开和closures的桌面。 R是一个远程文件服务器。 J和T上的用户可以更改一个目录(通过组权限共享)和他们自己的主目录中的共享数据。 两台J和T机器中只有一台在同一时间运行是相当普遍的。 互联网连接到R是相当可靠的,但是R很远,延迟使得它不适合作为主要的文件服务器。 我尝试使用NFS,这是非常痛苦的。 连接不够可靠,无法随时访问。 在这一点上,这不是一个选项,可以放入本地服务器,通过NFS或CIFS提供共享驱动器。 这样做会更容易,但是这不是一个选项。 我尝试了交叉安装的NFS导出,并设法得到几个简单的shell脚本来挂载驱动器等,但是如果J从T挂载驱动器并将其用作基本文件共享,然后T被closures,数据改变将是丢失。 所以我需要一些方法来不断地同步数据。 我看着rsync,最终find了csync(而不是csync2,这是一个完全不同的项目)。 这允许我在机器之间运行定期的同步。 然而,这是在cron而不是按需求完成的。 我还发现lsyncd,看起来好像是在两个工作站都启动的情况下复制更改,而不是在本地系统closures和另一个工作站正在进行更改时弄清楚发生了什么变化。 我看着Ubuntu One,Dropbox等,免费的文件限制是一个问题。 预算是非常非常有限的,要避免经常性费用。 iFolder可能是一个选项,但看起来它需要一个服务器的地方。 我更喜欢的是这样的: 将远程和本地副本安装到工作目录中。 在那里进行更改,并让文件系统将它们推送到其他位置。 login时,启动与其他机器的重新同步,以赶上机器closures时所做的任何更改。 两个工作站中的一个工作站可能会一次closures几天,所以可能会积累很多变化。 只有两个通常的用户,所以变化率不是很高,但一个星期后,他们build立起来了。 在文件系统上是否有一个类似RAID1的FUSE模块? 由于Gluster FS,AFS和NBD这些东西可能会断开很长时间,所以似乎并不合适。 如果有办法做NFS客户端故障转移(其他工作站停机,请使用本地副本),这也可以工作。 我已经做了一些研究,除了一些提到“autofs应该支持,但没有”,我没有find太多。 我更喜欢基于NFS / CIFS的解决scheme,因为那样我就可以获得文件locking,而且我们不会遇到用户试图同时修改相同文件的潜在问题。 但我不知道如何解决客户端故障转移。 你将如何解决这个问题? 同样,有一个本地文件服务器目前不是一个选项。

从cygwin访问NFS共享?

我们有一个Windows 2003 Server,我们已经安装了Microsoft的UNIX服务,并且我们已经挂载了一些包含我们需要从这个盒子中访问的共享资源的NFS共享。 当我用远程桌面login到这台服务器时,我可以浏览NFS共享的内容,一切正常。 然而,我们有一个用例是我们需要使用SSH访问这个服务器,并且仍然能够访问NFS共享。 我们正在运行Cygwin SSH守护进程以提供对服务器的SSH访问,但由于某些原因,当我们使用SSHlogin到Windows 2003服务器时,我们不能再访问NFS共享。 为了演示,下面是使用远程桌面login时,首先从Cygwin shell执行的“mount”命令的输出: $ mount C:/cygwin/bin on /usr/bin type ntfs (binary,auto) C:/cygwin/lib on /usr/lib type ntfs (binary,auto) C:/cygwin on / type ntfs (binary,auto) C: on /cygdrive/c type ntfs (binary,posix=0,user,noumount,auto) O: on /cygdrive/o type nfs (binary,posix=0,user,noumount,auto) P: on /cygdrive/p type nfs (binary,posix=0,user,noumount,auto) Z: on /cygdrive/z type nfs (binary,posix=0,user,noumount,auto) 现在,使用SSHlogin时,同样的“mount”命令: […]

XenServer和ZFS通过NFS

我正尝试将NFS共享连接到XenCenter。 NFS服务器是一个ZFSGuru发行版(使用FreeBSD)。 zfs卷是这样输出的: /sbin/zfs set sharenfs="on" temppool/share 根据“showmount”,它是可用的: showmount -e /temppool/share Everyone 但是,当我尝试使用XenServer连接到它(因此它可以用作VHD的存储)时,出现以下错误: Internal error:Failure("Storage_access failed with: SR_BACKEND_FAILURE_73: [; NFS mount error[opterr=mount failed with return code 32]; ]") 任何人有一个想法? 更新: 这是来自NFS服务器上的日志: 9月3日16:23:10 zfsguru mountd [962]:从192.168.10.217挂载不存在的path/ temppool / share / 7c8d3f2f-e0e0-5263-ccad-1cd32a4139cf 9月3日16:23:10 zfsguru mountd [962]:mount请求从192.168.10.217拒绝/ temppool / share / 7c8d3f2f-e0e0-5263-ccad-1cd32a4139cf Sep 3 16:23:11 zfsguru mountd [962]:从192.168.10.217挂载不存在的path/ […]

在一个NFS共享Drupal有可怕的performance

我们有一个安装了Drupal 7站点的设置,这个站点具有以下设置 – 运行Web虚拟机和NFS虚拟机的VMware ESXi 4.1主机服务器。 Web虚拟机正在使用Apache和mod_php。 该网站仍在开发中,因此我们不得不closures所有forms的caching由于经常更新的文件。 每个页面请求大约需要15-20秒才能完成。 对PHP代码进行性能分析显示绝大多数时间(通常超过90%)都是通过加载模块的所有is_dir(),is_file()函数调用进行的。 我已经将PHP的实际pathcaching大小增加到几个兆字节,strace显示lstat调用从200降到6左右,stat()减less了一些(大约600次调用)。 然而,虽然这已经削减了相当多的时间,但对于要求最严格的页面,我无法突破10秒的每个请求屏障。 有没有一种方法可以从这个设置中获得更好的性能,而不涉及caching? 编辑:MySQL不是问题,查询caching意味着请求最多需要一秒钟才能完成。 configuration和统计: VM主机:单四核至强CPU 虚拟机: web – Centos 6 64bt,2.5GB RAM,普通CPU / HD优先级(2核)nfs – Centos 6 64bt,2GB RAM,正常的CPU优先级(4核),高清优先级 PHP:32M实际pathcaching大小(testing目的是这么高) NFS: ~]# egrep -v '#|^$' /etc/nfsmount.conf [ NFSMount_Global_Options ] Defaultvers=4 Ac=False Rsize=32k Wsize=32k Bsize=32k 通过NFS读取速度不是问题使用32k块返回的100Mtesting文件的dd: 3200+0 records in 3200+0 records out 104857600 bytes (105 […]

如何在千兆网卡上更改“通告暂停帧使用”和自动协商设置

我正在调查一个新服务器上的一些糟糕的nfs性能,与旧的服务器相比。 旧服务器和新服务器都是nfs客户端,并且它们连接到相同的NetApp nfs服务器。 我的具体问题: 如何更改“播发的暂停帧使用”设置 ? 我在交换机端看了一下,交换机上的两个端口都说1000个全双工。 但是,旧服务器的stream量控制显示“Sy / Asy”,但新服务器设置为Sym。 我假设Asy =不对称和Sym = Symmetric,另一个假设是交换机看到Sym因为Advertised pause frame use在Linux端被设置为Symmetric 。 我怎样才能改变这个不对称? 这个设置可以影响性能吗? 我只是尽量排除。 这些是专用的存储链接,即它们是一个独立的NIC,并且位于与主NIC不同的子网上。 在新旧服务器上我看不到iowait问题,所以CPU和内存似乎不是问题。 我用eth设置或nfs设置来计算它的值。 我可以更详细地了解设置,但首先要回答这个具体问题。 新主机(HP ProLiant Dl360P Gen8上的CentOS 6.3) $ sudo ethtool eth3 Settings for eth3: Supported ports: [ TP ] Supported link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Half 1000baseT/Full Supports auto-negotiation: Yes Advertised […]

这个RPC错误信息是什么意思?

我有OS RHNL版本6.2并使用NFS服务(nfs-utils-1.2.3)连接到NFS服务器, 并在文件/ var / log / messages中发现了很多消息: Apr 1 11:08:35 XXX rpc.idmapd[3010]: nss_getpwnam: name '2' does not map into domain 'XXXX.com' Apr 1 11:14:26 XXX rpc.idmapd[3010]: nss_getpwnam: name '0' does not map into domain 'XXXX.com' Apr 1 11:18:36 XXX rpc.idmapd[3010]: nss_getpwnam: name '2' does not map into domain 'XXXX.com' Apr 1 11:24:27 XXX rpc.idmapd[3010]: […]

无法从Win XP客户端读取/写入NFS共享

我们在使用SFU安装在Win XP主机上的Debian Linux主机上有一个NFS共享。 我们可以在共享上创build文件夹或从中删除文件,但不可能对其执行文件写入或读取操作(比如copy file.ext n:\ blocks很长时间,最后终止) The remote system refused the network connection错误)。 安装时,我们在客户端尝试了TCP和UDP。 这两台机器之间的所有端口都在防火墙上打开。 Win XP事件日志和服务器端的系统日志中没有任何相关的信息。 这显然不是一个许可问题,因为我们可以创build文件夹。 我们能做些什么来find这个根本原因? 更新:我使用Wireshark捕获了一个NFS会话,发现根本原因是locking问题,NFS服务器密切回答客户端调用的NFS_DENIED_GRACE_PERIOD状态。 现在的问题是如何解决这个locking问题?

如何强制使用tcp而不是udp for rpcbind?

我试图在Debian Wheezy下使用tcp / 111作为rpcbind而不是udp / 111。 Squeeze中的portmap使用tcp / 111,没有任何特殊configuration,但是Wheezy失败。 甚至很多网站(以及RFC)都说TCP或UDP是dynamicselect的,或者有时在UDP失败的情况下使用TCP … – 当我用rpcbind在Wheezy客户机上拒绝udp / 111(使用iptables )时,出现错误。 .. # showmount -e server Export list for server: …. # iptables -I OUTPUT -j REJECT -d server -p udp –dport 111 –reject-with icmp-port-unreachable # showmount -e server clnt_create: RPC: Port mapper failure – Unable to send: errno 1 […]

可以在多个客户端上闲置的NFS挂载影响性能

我们有一个在工作的NFS服务器,工作稍微滞后。 然而,随着越来越多的客户端(由同一台服务器提供服务)创build更多的挂载点,我们注意到性能急剧下降,更多的用户无法挂载或挂载到挂载的NFS。 我的问题是几个客户机上的几个NFS点(即使闲置)会影响性能? 如果是的话,会有什么影响?