**编辑:**我不再使用Sabayon Linux,并且在其他发行版本上没有发生此问题。 我build议closures这个问题。 更新:我意识到由于主机文件不好,两台机器都将其本地名称parsing为127.0.0.1,而不是其局域网IP地址。 一旦我改变它并尝试挂载,客户端显示: mount.nfs4: timeout set for Sun Mar 31 10:33:38 2013 mount.nfs4: trying text-based options 'sec=krb5,addr=192.168.10.200,clientaddr=192.168.10.103' mount.nfs4: mount(2): Permission denied mount.nfs4: access denied by server while mounting shakuras.darwinia.lan:/ 查看客户端的系统日志: rpc.gssd[13067]: dir_notify_handler: sig 37 si 0x7fffcfa36cb0 data 0x7fffcfa36b80 rpc.idmapd[13036]: New client: 1a rpc.gssd[13067]: dir_notify_handler: sig 37 si 0x7fffcfa321f0 data 0x7fffcfa320c0 rpc.gssd[13067]: handling gssd […]
现在我有3台VMware ESXi主机使用4Gb光纤通道连接到我们的NetApp进行存储。 我想通过10Gb以太网切换到NFS。 每个ESXi服务器都有两个10Gb以太网端口,我的NetApp上的每个控制器都有两个10Gb以太网端口。 我需要得到的唯一一件事是以太网交换机。 我想有两个以太网交换机冗余,所以如果一个交换机死亡,存储将仍然工作,相同的双交换机光纤通道多pathI / OI现在。 但是,你如何通过以太网为NFS做同样的事情呢? 我知道如何处理ESXi方面和NetApp方面的问题,只是交换方面,我不知道该怎么做。 我知道如何做一个LACP干线/以太网通道绑定,但是在物理独立交换机之间不起作用。 那么,你能推荐一对Cisco交换机用于这个目的,以及我用来启用这种多pathNFS I / O的Cisco IOSfunction吗? 我希望交换机至less有12个10Gb端口。 我知道这些交换机将是巨大的,没关系。
我configuration了一个在Ubuntu 10.04 Server上运行的nfs-kernel-server。 /export THIRD_SERVER_IP(rw,fsid=0,insecure,no_subtree_check,async) SECOND_SERVER_IP(rw,fsid=0,insecure,no_subtree_check,async) /export/ebs THIRD_SERVER_IP(rw,fsid=0,insecure,no_subtree_check,async) SECOND_SERVER_IP(rw,nohide,insecure,no_subtree_check,async) 我将导出的文件夹安装到第二台服务器上: mount -t nfs4 -o proto=tcp,port=2049 NFS_SERVER_IP_HERE:/ebs /ebs 它工作得很好。 我把它挂载到第三台服务器,但是我无法从中访问文件。 ls -l /ebs ls: reading directory /ebs: Stale NFS file handle total 0 第三台服务器上的系统日志说: kernel: [11575.483720] NFS: server NFS_SERVER_IP_HERE error: fileid changed kernel: [11575.483722] fsid 0:14: expected fileid 0x2, got 0x6e001 一些信息: uname -r 2.6.32-312-ec2 uname […]
configuration是:作为nfs服务器的一个linux服务器和一个nas框(netgear)。 Linux服务器上的单个进程很容易通过将文件从nfs共享复制到nfs共享来使用所有的I / O带宽。 I / O通道被卡住,服务器上的所有其他进程几乎停止等待I / O。 负载增长到10-20(四个核心),越来越多的pdflush进程出现…直到有人停止文件的副本。 如何限制cp进程使用的I / O带宽? nice当然不会帮忙,而且ionice -c3也没有效果。 ionice是否影响nfs坐骑? 有没有像nfsnice的东西?
我试图通过Debian Squeeze上的OpenVPN链接挂载NFS文件系统。 问题在于init脚本的默认布局等尝试在启动VPN之前挂载NFS文件系统。 使用默认configuration,系统在引导过程中只是挂起。 我的OpenVPNconfiguration是标准的(/ etc / openvpn中的.conf文件),我的fstab是 10.123.4.5:/path1 /localpath1 nfs rw,acl,relatime,soft,intr 0 0 10.123.4.5:/path2 /localpath2 nfs rw,acl,relatime,soft,intr 0 0 10.123.4.5:/path3 /localpath3 nfs rw,acl,relatime,soft,intr 0 0 我尝试在/etc/network/interfaces为我的物理接口(eth1)添加openvpn vpnname ,当它启动eth1时尝试启动VPN,但仍尝试先挂载NFS。 closures也是一个问题:使用默认configuration,OpenVPN在使用NFS挂载的服务之前停止,所以挂起/重新启动挂起。 我怎样才能使这个工作? 清洁“这是”正确“的方式”解决scheme首选; 务实的解决scheme被接受。 🙂
我试图通过一个10Gbps链路来最大化Linux客户端和单个NFS服务器之间的NFS / TCP带宽。 尽pipe每个NFS挂载都有自己的设备(主要/次要),但是一切都归结为单个TCP连接,这是一个瓶颈。 使用iperf和多个TCP连接,我可以达到〜8Gbps,但NFS卡在一个单一的TCPstream,并限制在〜2Gbps(没有TCP调整呢)。 在Solaris上,有系统设置rpcmod:clnt_max_conns ,它允许设置系统可以使用多less并发的TCP连接到单个NFS服务器。 有没有一个相当于Linux的方法呢? 作为一种解决方法,我知道我可以在NFS服务器上设置多个IP,然后在它们上对这些挂载点进行负载平衡,但这不是最佳的。
我有一台色卡司N8900 NAS,它是基于Linux的文件服务器,通过NFS向六个客户端提供文件。 出于某些原因,Thecus支持尚未解释,它运行一个脚本,每60秒检查/ proc / meminfo,如果磁盘caching超过可用RAM的50%,他们做一个“echo 3> / proc / sys / vm / drop_caches “命令来刷新caching。 撇开是否合理的问题,实际的“echo 3> / proc / sys / vm / drop_caches”命令可能需要几个小时才能完成,这对我来说似乎太长了。 最大的问题是,当发生这种情况时,机器上的负载就会像磁盘利用率一样激增,从而使得所有的NFS通信都被抓取,直到命令最终完成,此时事情又会有所反应。 NAS本身有16个内存,7个raid6configuration的驱动器(加上热备份),根本没有驱动器问题(根据SMARTtesting)。 所以问题是:什么会导致drop_caches命令这么久?
我试图在我的公司部署freeIPA。 networking非常简单: <10 FC20(和FC21 beta)台式机 <5台FC20服务器(包括带有freeIPA的服务器) 1 Synology NAS DS1813 +(DSM 5.0) 我首先模拟虚拟机上的所有东西(包括Synology NAS)。 Synology也应该导出NFS共享,尽可能与freeIPA集成。 另外,我希望它为freeIPA用户提供NFS主目录(主目录目前在客户端是本地的)。 状态: freeIPA Server up(4.1.1) 注册Fedora客户端,我可以用LDAP用户login Synology:问题 关于Synology的客户状态和我的具体问题: DSM没有ipa-client-install ,所以我试图遵循通用和零散的(最新的手册不可用,据我所知)指令,如: http://docs.fedoraproject.org/en-US/Fedora/18/html/FreeIPA_Guide/linux-manual.html http://docs.fedoraproject.org/en-US/Fedora/18/html/FreeIPA_Guide/kerb-nfs.html http://wiki.linux-nfs.org/wiki/index.php/NFS_and_FreeIPA 它可以看到并使用freeIPA服务器作为唯一的DNS服务器 提到的第一步是“ 安装SSSD 1.5.x或更高版本,如果尚未安装。 问题是,SSSD似乎不适用于DSM。 我能在这里做什么? SSSD的缺席是一个表演塞? 下面的一个评论指出,这不是一个显示限制,因为SSSD只是一个客户端的凭证caching。但是:我可以忽略SSSDconfiguration,忘记它,或者它的缺席意味着一些不同的步骤客户端configuration? 这真的是可选的吗? NFS共享:假设我设法正确地注册了Synology,我不清楚为了将LDAP用户作为主共享使用哪些步骤。 有经验的人能给我一个简短的清单吗? 特别是关于要遵循的步骤的顺序 ? 我知道如何在Synology站点创build导出,以及如何从客户端使用它。 但是在这里,我还有另外一些困难,就是把出口作为家庭用品,并将其整合到免费的IPA中。 增加的复杂性,没有明确的指导给我头痛。 注意到用户很less,所以我更愿意创build新的LDAP用户,然后移动/重新拥有文件,而不是迁移用户。 我想尽可能避免的是用Synology站中的configuration文件手动搞定。 只要我通过用户界面做事情,我就可以把事情的可能性降到最低。 万一有什么不足之处,我很乐意更新这个问题。 谢谢!
我有一个Linux服务器,我已经configuration了一个只读的NFS共享。 我目前正在使用的客户端是安装了NFSfunction的Windows Server 2008 R2计算机。 我可以打开并执行除MSI文件以外的所有文件。 出于某种原因,除非我将驱动器映射到驱动器号,否则我无法通过此共享执行MSI安装程序(安装程序在本地复制时工作,但我尽可能避免这种情况)。 当我尝试直接从UNCpath执行时出现以下错误: 什么可能导致这个? 映射使其工作的份额是什么? 编辑 – 以下是使用msiexec进行详细logging时使用MSI进行调用的结果: === Verbose logging started: 1/30/2014 10:12:29 Build type: SHIP UNICODE 5.00.7601.00 Calling process: C:\Windows\system32\msiexec.exe === MSI (c) (80:F0) [10:12:29:228]: Font created. Charset: Req=0, Ret=0, Font: Req=MS Shell Dlg, Ret=MS Shell Dlg MSI (c) (80:F0) [10:12:29:228]: Font created. Charset: Req=0, Ret=0, Font: Req=MS […]
在代码部署期间,我们遇到了间歇性的问题。 NFS在读取文件时caching文件,但是如果在代码部署过程中读取文件,它将保持肮脏的状态,就好像文件在部署期间没有更改一样。 我们能够缓解这个问题的唯一方法是在部署之后清除NFScaching。 我们的networking服务器返回所有请求的空白页面,直到NFScaching被清除。 有没有设置或没有人有如何解决这个问题的build议? 目前我们正在运行NFS v3。