Articles of nfs

带有Kerberos和NFSv4的Synology DSM4.3

据Synology DSM4.3的新闻稿可以做NFSv4和Kerberos。 实际上,在带有NFS设置的选项卡中,有一个用于Kerberos设置的button。 但我无法在任何地方find任何指导。 我有一个KDC运行在一个单独的主机上。 我希望NAS使用这个KDC来authentication用户 – 最好是从LDAP读取主体,这个主体已经被设置为提供用户名和组。 有没有人有经验如何做到这一点,或者至less已经看到了一个HOWTO,文档,…除了新闻稿之外的任何东西?

什么会导致通过NFS的RMAN备份来杀死SAN性能?

我一直试图找出这个问题好几个星期了,我们正在使用每晚运行RMAN作业的Exadata来将数据库备份到NFS挂载。 当这些工作发生时,我们的光纤SAN上的平均等待时间已经过去了。 然而,只有几千个iop,90%的时间,其余的基础设施运行在20k iops左右,所以这是一个下降,即使在峰值时,延迟也不会跳跃。 当我使用dd操作对同一个NFS服务器运行testing时,SAN延迟没有增加。 我们正在为具有8Gb光纤连接到AMS SAN的NFS服务器运行Sparc Blade。 提供给该服务器的存储位于SATA上,但延迟会影响我们的VMWARE以及光纤驱动器上的Oracle系统以及不同的控制器。 我已经没有想法了,有没有其他人见过这样的事情? 更新 12/17 在做了一些研究后,看起来exadata上的挂载选项设置为32k传输大小,用于读取和写入。 我正在与数据库团队合作使用一些理智的传输大小,但是Oracle推荐使用32k … 更新 12/31 这是NFS的安装尺寸,我们把它们提高到了每个兆,并且也放弃了RMAN的两个通道,而不是32个(我不知道dba的想法)

AutoFS通配符子目录

我正在尝试为所有使用AutoFS的/home/users/<username>/secure自动安装/home/users/<username>/secure 。 当然,我会把这一行作为一个直接的地图: /home/users/*/secure -fstype=nfs4,rw,sec=krb5p jupiter:/home/users/& 但是根据文件 : 您不能在直接映射中使用星号(*)通配符。 如果我想挂载整个home目录,可以很容易地在间接映射中完成,如下所示: * -fstype=nfs4,rw,sec=krb5p jupiter:/home/users/& 主文件将有: /home/users /etc/auto.home 但似乎一旦我想要定位通配符的子目录,它并不真正支持。 至less我找不到合适的文档。 我希望能够实现这一目标的另一种方法是使用可执行映射,但是对于/home/users/<username>/非安全目录中的所有目录,可执行映射应执行的操作并不清楚。 它应该如何表示这些path不应该被安装? 目前我正在使用pam_mount来实现这一点。 但是,这些是移动工作站,可以间歇性地访问NFS服务器。 使用pam_mount,当用户login而服务器不可访问时,安全目录将不会被安装,直到注销并重新login。 所以我希望autofs会更好。

NFS性能问题使用NAS

我正在使用NFS遇到一些性能问题。 在这里我的configuration: 具有一些内部存储器和外部存储器的物理NAS。 一台名为GhettoVCB的虚拟Linux机器,我使用nfs安装了内部NAS存储和外部NAS存储 当我从GhettoVCB运行这个命令,我只得到6.5MB / s这个命令复制一个文件从NAS内部存储到NAS外部存储。 这是正常的吗? 如何改善NFS以获得至less20MB / s?

NFS服务器没有响应客户端 – 进程的“迁移”和“xfssyncd”消耗不寻常的CPU

我有一个运行NFS 4的CentOS 6.4文件服务器,服务于几个XFS文件系统。 有几十个客户端连接到它。 今天,它减缓了客户端的爬行速度 – 客户端会挂起,或者在从服务器访问挂载的NFS共享几分钟后才响应。 在服务器本身上,我可以毫不费力地访问共享文件系统。 大约四个小时后,麻烦就消失了,但是我不知道为什么 – 请看下面。 top显示了几个migration过程和xfssyncd进程消耗不寻常的CPU数量,跳跃之间0%和任何地方高达100%,每隔几秒钟。 没有其他进程显着活跃。 上面报告的整体CPU使用率很低,如下所示: Cpu(s): 0.0%us, 4.2%sy, 0.0%ni, 95.8%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st 我一直无法在网上find任何关于这个问题的话题,除了可能来自仅在其用户部分中的RHEL支持条目,我看不到。 我运行service nfs restart 。 然后service nfs status显示正在运行的守护进程,除了nfsd dead but subsys locked 。 在又一次重启之后,这个消失了,nfsd正在运行,但是客户端仍然被挂起。 我尝试了一些与xfssyncd相关的问题: 1)在导出的fs上mount –o remount /mnt/data 。 有趣的是,这个命令花了一分钟左右的时间,而在这段时间里,这个“狂野”的进程安顿下来。 但是一旦命令完成运行,进程就回到了高CPU使用率。 2) echo 720000 > /proc/sys/fs/xfs/xfssyncd_centisecs以更改xfssyncd的同步间隔。 这并没有引起任何显着的差异,这并不令人惊讶,因为fs忙于NFS客户端,问题一定是别的。 3个星期前,我在这台服务器上遇到了一个问题,一个.nfsNNN文件(来自被删除的文件仍然是打开并被访问的)在客户端快速填充了循环错误消息。 杀死问题进程修复了NFS放缓。 [但是文件服务器在几天之后再次减速,没有出现这样的.nfsNNN文件问题,我最终不得不重新启动它。 当时我看到一些cpu级别非常高的进程,但是没有注意到它们是什么,现在也不记得了,如果它们与当前版本相同。] […]

mdadm raid10或nfs的性能问题?

我有一个新的mdadm RAID10设备是健康的,由4个7200转/分钟的SATA 3驱动器构build而成: # cat /proc/mdstat Personalities : [raid10] [raid1] md2 : active raid10 sdc3[5] sda3[4] sdb3[1] sdd3[3] 3885267968 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU] (还有两个mdadm设备,但是md2是相关的) 在md2之上是一个ext4文件系统,用以下方式创build: mkfs.ext4 -m0 -L bups -b 4096 -E stride=8,stripe-width=32 /dev/md2 在通过NFS使用它作为备份目标时,性能非常糟糕。 在单个客户端写作时,我看到了这样的数字,大约有30%到50%的I / O等待在top : Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn sda 197.00 0.00 1.07 0 […]

NFS服务器导出列表为空

升级我的路由器后,我无法从OS X客户机上的Debian服务器上挂载NFS共享。 我根据客户端的新IP地址更新了/etc/exports (以前使用旧IP的第一行,其次是MWE): /mnt/backup 192.168.3.3/255.255.255.0(ro,sync,no_subtree_check,insecure) /mnt/backup *(rw,no_subtree_check) 我已经应用了更改 exportfs -ar 并且还重启了守护进程: /etc/init.d/nfs-kernel-server restart /etc/init.d/nfs-common restart 所有没有错误。 在服务器上的showmount -e返回一个空列表,我无法从OS X客户端装载共享。 rpcinfo -p显示NFS的版本2-4,而nfsstat –s具有“Server nfs v3”的条目。 有任何想法吗?

PHP文件加载时间,也许与NFS有关?

问题 我试图在我正在开发的Drupal网站上诊断性能问题。 在早上,当网站超过8小时没有stream量(甚至没有cron运行),首页需要大约3.5秒的时间加载。 重新加载页面需要250ms。 这是一个开发Web服务器,安装了相当旧的PHP版本(5.3.3)。 所有的文件都通过NFS静态挂载 (我相信这是根本原因,更多的在下面)。 为了帮助诊断,我在此开发服务器上安装了XHProf ,并启用了一个Drupal模块,用于configuration页面加载并将分析数据显示在一个很好的可sorting表格中。 对于那些不熟悉XHProf的人来说,它提供了每一个被调用的函数的数据,以及诸如花费的总时间,内存使用量以及对这个函数的调用等。 我的发现 在最初的“慢”命中,PHP函数file_exists从82个调用中花费1400ms ,占总执行时间的大约43%。 在随后的页面加载中,相同的函数file_exists再次被调用了82次,但是这一次仅仅是3ms ,仅占总执行时间的1%。 我另外看了PHP花费最长时间加载到内存中的文件(这是我认为load:: prefix表示函数名)。 这个PHP模板文件花了高达42毫秒来加载第一次,只有3ms在随后的重新加载! 我怀疑 对我来说很清楚,某处存在某种caching – 我只是不知道在哪里。 file_exists的PHP文档提到这个函数的输出被caching了。 然后我发现我可以控制这个caching的大小,它应该从默认的16k增加到更适合Drupal(加载相关文件吨)的东西。 但是,虽然我认为这会减less花费在file_exists的时间,但我不确定这会影响PHP实际加载文件的时间( load::我之前提到过),增加这个值似乎只是隐藏文件系统的基本性能问题。 问题 如果有任何XHProf或P​​HP退伍军人,可以确认增加的PHP的realpath_cache是否对load:: from XHProf报告的时间有任何影响? 我应该在Linux中意识到哪些底层caching机制可能会产生影响? 同上,但对于NFS?

nmon NFS性能计数器/指标

我最近使用nmon来logging来自suse 10 SP4主机的NFS客户端性能数据,现在需要帮助了解捕获的读写数字真正表示的内容。 使用其他性能测量工具,计数器的测量结果相当明显。写入(KB)=写入吞吐量(以KB为单位)或读/秒=每秒读取操作数等。 nmon和其他NFS工具简单地将读取活动标记为“读取”,所以如果任何人在这里可以指向我的文档/网站,或者至less告诉我你对“访问”,“读取”和“写入” 。 我期望这是一个简单的时间点捕获读取操作计数,例如100个读取处理在采样时间,但我确实需要知道。 谢谢

ZFS在RedHatconfiguration

我必须使用NFSv4设置ZFS存储设备(Oracle ZFS Storage ZS3-2)。 NFS安装在一个Redhat 6.5集群上,在这个集群上创build了linux用户(它们不存在于设备上)。 但是由于用户不匹配,我无法访问音量。 我怎样才能同步用户和控制从Linux端的一切? 我希望能够在存储上设置Linux机器的配额和共享。 这甚至有可能吗? 谢谢