在这里遇到一些问题,我设置了两台带有Glusterfs的服务器(Centos 6)和它们之间的共享目录,我将nfs目录移动到共享的Gluster文件夹,并在两个框上创build了一个符号链接。 机器可以通过主机名与自己对话,Gluster复制通过服务器之间的另一个以太网卡进行处理。 我遇到的问题是,即使资源故障转移正确(尽pipe似乎在故障转移时出现了几次),我在客户机上得到了过时的nfs句柄。 以下是我的crmconfiguration; 我究竟做错了什么? 客户端上的nfs挂载尽可能简单。 node GlusterFS01 node GlusterFS02 primitive ClusterIP ocf:heartbeat:IPaddr2 \ params ip="10.10.10.167" cidr_netmask="24" clusterip_hash="sourceip" \ op monitor interval="5s" primitive exportfs ocf:heartbeat:exportfs \ params fsid="0" directory="/GlusterFS/Files" \ options="rw,sync,no_subtree_check,no_root_squash" \ clientspec="10.10.10.0/24" \ wait_for_leasetime_on_stop="false" \ op monitor interval="5s" \ op start interval="0s" timeout="240s" \ op stop interval="0s" timeout="100s" \ meta is-managed="true" target-role="Started" primitive […]
在虚拟机内部,主机地址是10.0.2.2,本地地址是10.0.2.15。 (VirtualBox的)。 这将在主机端转换为127.0.0.1。 连接: sudo mount -vvvt nfs4 -o clientaddr=127.0.0.1 10.0.2.2:/srv /mnt 我指定clientaddr,因为我想这个问题可能是由于地址不匹配,但它不会改变任何东西。 几分钟后,客户端返回通常的权限拒绝消息,服务器拒绝访问。 在服务器端,我运行 # rpc.mountd -d all -F # rpc.idmapd -vvvf # rpc.nfsd -d 我使用systemd,所以我也监视日志的任何输出。 当我发出安装请求时,以下内容在networking中可见: reply ERR 20: Auth Bogus Credentials (seal broken) 但日志(除rpc.nfsd之外)或rpc.mountd或rpc.idmapd的输出中,除了某些启动消息外,不会显示任何内容。 实际上,在rpc.mountd的情况下,偶尔会得到以下结果: rpc.mountd: auth_unix_ip: inbuf 'nfsd 127.0.0.1' rpc.mountd: auth_unix_ip: client (nil) 'DEFAULT' 据我所知(请纠正我!)没有其他来源的信息NFS的function,也没有configuration涉及。 我已经为每个命令指定了冗长的模式,所以我对如何诊断这个问题感到不知所措。 我假设这是我的导出文件的问题,如下所示: /srv 127.0.0.1(rw,sync,no_subtree_check,no_root_squash) 但我宁愿从系统得到一些反馈,告诉我哪里出了问题,而不是通过反复试验来摆弄出口文件。 那么,有没有人知道我在哪里可以find更多关于发生了什么? […]
我正在使用各种基于Solaris的发行版(OmniOS,SmartOS,Nexenta),并且在极less量的高性能存储上拥有高度可压缩和可重复数据删除的数据集。 问题是由NFS向客户端发布的空间是免费的空间。 但是由于我可以对传入数据进行重复数据删除和压缩,因此实际的空间要求对源数据文件大小几乎没有影响。 在这种情况下导致问题的是当我想要复制一个大文件或一组大文件时,客户端检查是否有足够的空间,并且看到没有,即使我要重复删除超过90%该文件的内容。 所以在这种types的环境中,有什么方法可以覆盖nfsd给客户端的价值?
我正在尝试设置cachefilesd以使用NFS共享的networking文件夹。 我似乎有一切设置,但是cachefilesd正常启动,但caching不起作用。 这里是命令的输出,我按照相同的顺序运行 1 sudo mount … cache-1:/mnt/datashared on /mnt/nfsshare type nfs (rw,sync,ac,acregmin=3,acregmax=60,acdirmin=30,acdirmax=300,lookupcache=pos,vers=3,fsc) … 2 lsbmod | grep cachefiles cachefiles 40555 1 fscache 57430 4 nfs,cifs,cachefiles,nfsv4 3 [edited – deleted] 4 uname -r 3.8.0-34-generic 五 grep CONFIG_NFS_FSCACHE /boot/config-3.8.0-34-generic CONFIG_NFS_FSCACHE=y 6 lsb_release -a No LSB modules are available. Distributor ID: Ubuntu Description: Ubuntu 13.04 Release: 13.04 […]
我有一个由ftp:users拥有的文件夹。 我想导出这个文件夹,并将所有的请求映射到ftp用户,其ID为107.在/etc/exports我有以下内容: /media/other 10.1.1.10(rw,sync,all_squash,no_subtree_check,anonuid=107) 这按预期工作。 在客户端,我想映射这些匿名请求到不同的用户,所以在/etc/idmapd.conf我有这样的: Nobody-User = nfsanon Nobody-Group = nfsanon 但是,当挂载NFSv4时,所有内容都由nobody:users 。 它正确地映射了组(它也存在于客户端上),但是客户端上不存在的ftp用户映射到idmapd.conf nobody而不是Nobody-User 。 为了试图理解为什么会发生这种情况,我打开了详细信息,并将其插入客户端日志中 。 一次安装尝试产生以下内容: nfsidmap[8610]: key: 0x28bf0a94 type: uid value: [email protected] timeout 600 nfsidmap[8610]: nfs4_name_to_uid: calling nsswitch->name_to_uid nfsidmap[8610]: nss_getpwnam: name '[email protected]' domain 'dom.ain': resulting localname 'root' nfsidmap[8610]: nfs4_name_to_uid: nsswitch->name_to_uid returned 0 nfsidmap[8610]: nfs4_name_to_uid: final return value is 0 nfsidmap[8612]: […]
我已经build立了对HDFS的NFS访问。 我可以连接到Windows和Linux客户端的默认根共享,所有客户端都可以从共享中读取。 从Linux客户端写入也是好的。 当我尝试从Windows Server 2012 R2客户端将文件复制到共享位置时,出现错误消息 文件的音量已被外部改变,以致打开的文件不再有效。 NFS服务器中的日志包含 错误org.apache.hdfs.nfs.nfs3:创build文件时不支持设置文件大小。 考虑到HDFS是仅附加文件系统,这听起来是合理的。 基于某些networkingsearch,似乎存在一些暴露设备的CD / DVD写入封装的类似问题,看起来有办法解决这些问题。 有没有办法阻止Windows试图设置文件的大小,因为它在这个特定的设备上创build文件 – 或者是所有的NFS挂载在系统上?
我有一个运行几个虚拟机的SmartOS(基于OpenSolaris的操作系统)服务器。 其中一个ZFS卷作为NFS卷共享,并挂载在运行Debian的其中一台虚拟机上。 通过NFS v4安装正常工作。 当我通过zfs userquota @ user属性来设置配额时,我可以通过运行如下的命令来访问Linux机器上的配额信息: 配额-u用户名-m -A -v 但是,当我试图从Linux端更新/设置配额时,出现“连接被拒绝”错误。 我使用这个命令: edquota -r -m -u用户名 Linux客户端在NFS共享上拥有根权限。 甚至可以从Linux设置配额吗? 如果是这样,如何debugging“连接被拒绝”错误?
我们目前有一个设置(在Ubuntu 14.04 LTS上运行),具有混合的LDAP / NIS身份validation和来自多个服务器的自动安装的主目录( auto.home map分布在NIS上)。 只要login的用户(使用NIS或LDAP)已经有一个主目录(即ls /home/user成功触发其安装),一切都将平稳运行。 我想使用pam_mkhomedir.so来为服务器上没有家的人自动创build本地主目录(这在正常设置下工作正常),但是当然这是行不通的(在这个问题中描述的同样的问题: LDAP / NFS / PAM / AutoFS:mkhomedir PAM插件failling ),因为autofs和pam_mkhomedir无法一起工作。 在/home任何mkdir实际上都会在启用了automounting时失败,因此在/home进行绑定安装也不是解决scheme。 有没有人知道有一个很好的解决scheme,为本地主目录创build没有NFS的家庭,知道我们无法控制来自LDAP的信息(即,用户必须在/home/username有他们的家,而autofs是在那里工作),并没有黑客进入autofs的来源? 在login时在NFS服务器上创build一个家庭将是一种可能性,但如何以一种安全的方式做到这一点?
所以我有这个问题。 这个可怕的,可怕的问题。 我有一套Linux NFS服务器(在使用CTDB的NFS / CIFS集群中),只有在锁被阻塞时才拒绝锁。 如果这是一个非阻塞的呼叫,它工作得很好。 查看下面的交通stream量: lockinglocking电话: 9.414674 10.10.1.40 -> 10.10.1.14 NLM 282 V4 LOCK Call FH:0xf6b3519c svid:5 pos:0-0 nlm.lock.caller_name == "centos-ad2012r2" nlm.exclusive == 1 nlm.block == 1 9.415002 10.10.1.14 -> 10.10.1.40 NLM 106 V4 LOCK Reply (Call In 39) NLM_BLOCKED nlm.stat == 3 18.613965 10.10.1.40 -> 10.10.1.14 NLM 274 V4 CANCEL Call […]
我遇到了一个让我感到困惑的NFS问题。 我甚至不能为此提出合理的解释。 我有十台机器: slave1(10.0.0.10) – slave10(10.0.0.20) 每个人都运行NFS服务器并导出一个目录。 我照常安装目录: sudo mount 10.0.0.11:/var/export /mnt/slave/1/ -o soft sudo mount 10.0.0.12:/var/export /mnt/slave/2/ -o soft … sudo mount 10.0.0.20:/var/export /mnt/slave/10/ -o soft 在这一点上坐骑看起来像这样: 10.0.0.11:/var/export on /mnt/slaves/1 type nfs (rw,soft,vers=4,addr=10.0.0.11,clientaddr=10.3.3.212) 10.0.0.12:/var/export on /mnt/slaves/2 type nfs (rw,soft,vers=4,addr=10.0.0.12,clientaddr=10.3.3.212) 10.0.0.13:/var/export on /mnt/slaves/3 type nfs (rw,soft,vers=4,addr=10.0.0.13,clientaddr=10.3.3.212) 10.0.0.14:/var/export on /mnt/slaves/4 type nfs (rw,soft,vers=4,addr=10.0.0.14,clientaddr=10.3.3.212) 10.0.0.15:/var/export on /mnt/slaves/5 […]