Articles of nfs

高可用性NFS

我们正在考虑在Amazon AWS上托pipe一个Web应用程序。 我已经为它提出了一个build议的设置,我将尝试总结几行: Web应用程序由负载均衡器后面的3个可用区域中的Web服务器提供。 当负载增加时,networking服务器会自动从3增大。 这是通过运行几个bash命令的用户数据文件完成的。 数据库放置在多可用区RDS解决scheme上 由于应用程序写入文件系统,我们还需要在webroot上安装某种networking附加文件系统。 最后一点是我担心的。 我有一些AWS的经验,除了处理两个可用区之间的延迟之外,这将提供单点故障。 所以,我一直在看GlusterFS,因为那是serverfault上的某个人向正在处理类似泡菜的人提出的build议。 我已经在每个AZ中build立了一个Gluster节点的环境。 在我的web服务器的启动脚本中,我评估它所在的AZ的名称,并select同一AZ中的Gluster节点,以减less延迟。 那很完美! 但是,让我们说在AZ美国us-east-1a节点以某种方式失败。 有没有办法让我的web服务器在us-east-1a回落到us-east-1b的节点us-east-1b如果us-east-1a节点不可用? 当然,如果两者都不可用,对us-east-1c也是us-east-1c ? 到目前为止,我只看到了在同一台机器上使用Gluster的服务器和客户端function的例子,我想避免这种情况。 出于性能考虑,我将使用NFS客户端可能是一件好事。 当然,这个文件存储系统的任何其他build议将是非常受欢迎的。

KVM + NFS磁盘性能差

情况:我们有一台使用KVM托pipe三台虚拟机的Ubuntu服务器。 所有访客以及主机都需要访问/ var的某个子文件夹中的相同文件。 因此,子文件夹通过NFS导出。 我们的问题是客人只能以主机速度的一半读/写目录。 导出表如下所示 alice@host:~$ cat /etc/exports /home/videos 192.168.10.0/24(rw,sync,no_root_squash) 主机IP为192.168.10.2,虚拟机为192.168.10.1 {1..3}。 / home / videos是/ var中某个子文件夹的符号链接。 特别是/ var / videos / genvids。 这是VM的fstab的相关行: 192.168.10.2:/home/videos /mnt/nfs nfs auto,noatime,rsize=4096,wsize=4096 0 0 硬盘的持续数据速率为〜155 MB / s,通过hdparm -tT的输出以及dd: alice@host:~$ dd if=/home/videos/4987_1359358478.mp4 of=/dev/null bs=1024k count=300 300+0 records in 300+0 records out 314572800 bytes (315 MB) copied, 2.04579 s, […]

如何从一个NFS映像中PXE启动多个服务器?

我需要通过PXE启动引导多个服务器。 他们都将运行相同的ramdisk(即pxelinux.cfg目录中的“default”),然后它们都通过NFS挂载根文件系统。 然后他们对该NFS根映像执行switch_root命令。 我想使这个NFS映像只读,并为所有的服务器使用相同的,但是,然后我的服务器是非常没有价值,因为即使/ tmp是只读的。 我正在考虑将离开/ tmp,/ home以及其他任何需要永久性唯一存储的映像从NFS映像中删除,而将其从本地硬盘挂载。 这会工作吗? 如果是这样,我将如何在init脚本中做到这一点? 这在行业中是如何完成的? 我确信有机架和机架的服务器需要从单一来源进行pipe理和更新。 我不能是唯一一个想要这样做的人,对吧? 我希望单个服务器独有的所有“用户”数据位于本地硬盘上,而所有OS文件(需要定期更新等)来自PXE引导和NFS映像。 链接到这种types的服务器pipe理充足的文档将是美好的。

迁移到新子网后,不能再使用文件locking进行NFS挂载:statd超时,lockd无法监视

我正在子网A中的虚拟机上运行带有LDAP用户authentication的Ubuntu 10.04 NFS服务器。服务器使用nfs v3将用户主目录导出到子网B和C中的ubuntu客户端。服务器有其他服务正在运行,目前我的问题无关紧要。 一切工作好几年。 现在我们搬到一个新的大楼,并得到一个新的子网D(子网B和C中的主机成为新的子网D)。 此外,与托pipe我的虚拟服务器的计算中心的连接,现在距离商业提供商一公里的电缆,并且具有较小的带宽。 这些是我所知道的唯一改变的两件事。 现在的问题是,我只能通过使用nolock选项从客户端进行工作连接/挂接。 如果未提供此选项,则在/var/log/syslog的服务器上收到以下消息 kernel: [11457.902470] statd: server rpc.statd not responding, timed out kernel: [11457.902481] lockd: cannot monitor notos 并且在没有nolock选项的情况下,用户无法使用gui尝试设置文件locking(google-chrome,…)或甚至无法login(因为需要locking)而打开任何程序。 移动后的第一天,当我们在新子网中只有一半的客户时,我并没有意识到这个问题,甚至没有出现。 除了许多其他的事情,我尝试了这个启动板错误描述中描述的内容 。 我认为商业提供商可能不能组播。 但是没有任何效果。 任何帮助将appriciated。

在CentOS 6.4上挂载Kerberosvalidation的NFS共享时出现的问题

我试图在CentOS 6.4机器上安装Kerberosauthentication的NFS共享。 我试图从另一个CentOS 6.4机器和我们的NetApp导出受保护的共享,结果相同。 CentOS机器和NetApp都join到我们的Active Directory(2012)域。 我可以使用AD凭证SSH进入CentOS机器。 诸如kinit,msktuil等工具的工作。 我已经使用mskutil来生成客户端的keytab文件。 AD中的计算机帐户具有计算机,根,nfs等的主要logging。时钟全部同步到域控制器。 我在下面的rpc.gssd输出中看到它没有find一个键,但是它继续find根键。 下一行似乎表明它没有find它在前面的行中find的键? 蜂房的头脑可以帮我在这里find我吗? 我觉得我已经接近有事情了 客户端上的/etc/krb5.keytab文件的相关位如下所示: 5 12/02/13 16:14:14 [email protected] 5 12/02/13 16:14:14 root/[email protected] 5 12/02/13 16:14:14 root/[email protected] 5 12/02/13 16:14:15 root/[email protected] 5 12/02/13 16:14:15 NFS/[email protected] 5 12/02/13 16:14:15 NFS/[email protected] 5 12/02/13 16:14:15 NFS/[email protected] 5 12/02/13 16:14:15 NFS/[email protected] 5 12/02/13 16:14:15 NFS/[email protected] 5 12/02/13 16:14:15 NFS/[email protected] […]

挂载nfs共享的导出

我有两台机器A和B不在同一个networking上,我想从一台机器上导出一个nfs共享。 在中间,我有一台机器在这两个networking上。 我成功地将我的A的份额挂载到M.现在,我想将此挂载导出到B. 我在M上创build了一个导出,如下所示: /mnt/path/to/mountpoint/of/A's/nfsshare <B's IP address>(rw,insecure,secure,root_squash,wdelay,sync,no_subtree_check) 并试图把它安装在B上,就像这样: <M's hostname>:/mnt/path/to/mountpoint/of/A's/nfsshare /some/empty/directory nfs auto,rw,rsize=65535 0 0 当我尝试挂载M的导出时,我在B上得到这个消息: mount.nfs:vm-dc:/ mnt / dcstore01 / data02 / formats_exploitation失败,服务器给出的原因:权限被拒绝 我在M的系统日志中得到这个消息: Dec 6 13:53:05 vm-dc rpc.mountd[27916]: authenticated mount request from 10.0.0.1:773 for /mnt/dcstore01/data02/formats_exploitation (/mnt/dcstore01/data02) Dec 6 13:53:05 vm-dc rpc.mountd[27916]: qword_eol: fflush failed: errno 22 (Invalid argument) Dec 6 13:53:05 vm-dc […]

NetApp ONTAP 7.1:在NFS导出上启用asynchronous

NetApp ONTAP 7.1上的NFS导出是否有asyncfunction? 如果是这样,怎么能启用? 目前为止,我发现的最好的search结果是NetApp论坛上的一个未答复的post: https : //communities.netapp.com/thread/34375

AIX上的NFSv4权限

我试图跨两个不共享UID / GID的系统使用NFSv4挂载。 这是一个系统迁移,旧环境使用任何UID / GID可用,他们现在冲突的新环境。 我已经给所有的用户在新的环境中新的非冲突的ID。 我的问题是NFS挂载。 我试图使用NFSv4,因为它传递的ID作为string,而不是数字(这应该有助于映射)。 我可以在旧的环境中安装一个文件系统,当我做一个ls -l ,我在两边看到正确的名字(所以映射工作正常)。 当我尝试以用户身份(两个系统上存在不同UID的用户)接触文件时,我的权限被拒绝。 用户是两个系统上适当组的成员(该组在两种环境中都有不同的GID,但用户是双方都是正确的成员)。 还有其他的select来解决我的问题(使用NFSv3和重新映射的UID / GID),但我不想这样做,如果我可以避免它。 这里是我的configuration和一些testing,以显示我所看到的… 服务器configuration: # chnfsdom Current local domain: red.act.ed # cat /etc/exports /usr/sap/trans -vers=4,sec=sys,rw,root=172.29.4.56:172.29.4.55:172.29.4.65 # ls -ld /usr/sap/trans/data drwxrwxr-x 2 d01adm sapsys 118784 Apr 23 08:25 /usr/sap/trans/data # ls -nld /usr/sap/trans/data drwxrwxr-x 2 300 300 118784 Apr 23 08:25 […]

ec2 systemd无法在启动时挂载nfs并超时

我正在运行Red Hat Enterprise Linux Server release 7.0 (Maipo)最新版本: [root@ip-10-184-161-46 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 7.0 (Maipo) [root@ip-10-184-161-46 ~]# rpm -q nfs-utils nfs-utils-1.3.0-0.el7.x86_64 [root@ip-10-184-161-46 ~]# 我在/etc/fstab有以下条目: [root@ip-10-184-161-46 ~]# grep -v ^# /etc/fstab | tail -2 UUID=0f89adb9-ac88-4be5-b6cc-52a05bbdb825 / xfs defaults 1 1 ip-10-164-175-246.ec2.internal:/var/www/html /var/www/html/ nfs4 defaults 0 2 [root@ip-10-184-161-46 ~]# 实例重启之后,我在rsyslog.service里面看到了systemd : Jul […]

使用JBOD进行冗余NFS

我有一个Xyratex sp-2224 JBOD机箱 (双控制器)和一对安装了SAS HBA的戴尔服务器,我打算在冗余NFS群集中使用它。 硬件不是我在这里挣扎的,它是做软件的。 我已经研究过Windows Storage Spaces,看起来它将使用MSCS,但是我希望基于Linux的解决scheme能够解决这个问题。 我的Google技能真的让我失望,因为我一直无法find任何可靠的例子来帮助我。 他们中的大多数似乎都假设了SAN后端之类的东西。 这里的最终目标是在磁盘和NFS守护进程本身上引入冗余。 我知道我可以使用类似Heartbeat / Pacemaker的东西来集群NFS,但共享存储对我来说是一个谜…我可以使用什么文件系统和/或解决scheme来实现这样的事情? JBOD机箱不会执行RAID,只是将磁盘提供给连接的服务器。 提前致谢!