Articles of nfs

NFS停留在ack循环中

我有一种情况,三个不同的NFS客户端之一会在一段时间后(某些天数)中断。 我发现破损的主机和服务器不断地发送'ack'数据包(达到100 + mb / s)。 双方都发送相同的数据包,双方都不会重发任何实际的数据。 1最终服务器将重置连接,NFS将在短时间内(2-4分钟)正常运行。 服务器重新启动将修复所有事情,直到数天后再次中断。 环境是其他环境的重复,其他NFS客户端从来没有这个问题(相同的操作系统和应用程序版本)。 在排除故障的同时,我看到wireshark将数据包报告为“TCP ACKed unseen segment”,但我不明白为什么。 数据包#28517有Ack = 2194563093和数据包#28513有Seq = 2194563093 …这是数据包被确认,对不对? 我做了另一个干净的捕捉,看起来是一样的,所以我不明白为什么它显示了这样的。 2 我主要查找debuggingNFS问题(客户端的SLES,服务器端的EMC VNX)的提示,并确认wireshark输出是错误的(否则这是我应该深入研究的实际线索)。 编辑:服务器和客户端在相同的交换机,相同的子网。

连接到NFS服务器失败?

当我尝试在vmware-vsphere中创build一个NAS数据存储(shareing_datastore)时,我总是有这个错误

在AWS EC2系统上使用NFS分区。 使用rsync上传文件会降低实例速度

我正在运行一个AWS EC2系统,在实例之间有一个共享的NFS分区(5x m3.medium)。 我正在上传一个不断增加的二进制文件,速度比我的最大带宽低10倍(在2.5MBpipe道上传250kBs),使用rsync –append 。 同时,我正在分析NFS分区上的文件,并使用MPI分配这些计算。 虽然rsync没有运行,但使用MPI的分析工作正常,需要5秒钟才能运行二进制文件。 当rsync正在运行时,实例之间的MPI通信会进行爬网,需要几个小时才能完成相同的任务。 分析脚本花费大量时间在MPI_File_read_at()命令上,读取NFS共享分区上的二进制文件。 当我停止rsync并重新运行分析时,速度是正常的。 我已经在这个问题上工作了几天,并没有取得太大的进展。 我不确定问题是在rsync文件上使用MPI还是通过NFS更新文件,或者是什么。 我已经明显地限制了rsync的带宽( rsync –bwlimit=X ),并且减速仍然发生。 我没有太多的这些工具的经验,但只是试图得到一个系统,目前的作品。 如果有人知道什么会导致这种滞后,或者我使用的这些方法之间的其他不兼容性,我将不胜感激。

集群模式Netapp – Snapmirror更改unix组

我正在尝试在两个集群模式netapp文件pipe理器之间设置snapmirror。 但是,一个在美国,另一个在中国。 作为安全措施,我们在这里设置了两个不同的UNIX组。 即我们在美国有users.usa,在中国有users.china。 users.usa不能查看users.china文件,反之亦然,中国没有人可以成为users.usa的用户。反之亦然。 因此,我可以将users.usa数据镜像到china,并将文件的unix组更改为users.china,也就是说有netapp选项吗? 另外,通过这样做,我会完全搞砸压缩/ snapmirror比较algorithm,因为这些文件在技术上是不同的,不是吗? 感谢这个,我们在两个文件pipe理器上都是在8.3上面。 本

首先不能rm / unlink文件,但可以在vim和写入文件之后

注意:看起来像将selinux设置为Permissive模式不会阻止此文件权限问题。 我们有一个运行CentOs 7.2.1511的开发虚拟机。 文件通过NFS(通过vagrant(virtualbox))与我们的主机(Mac)共享。 NFS共享是我们可以在主机上使用PHPStorm编辑代码。 如果我们使用SMB共享,​​这个问题不会突然出现,但是文件共享r / w性能会慢得令人不快。 stream浪者的分享设置是: config.vm.synced_folder "code", "/srv/client/code" , :nfs=>true, :mount_options => ['rw,noatime,nolock,vers=3,udp,fsc,actimeo=2,resvport,rsize=32768,wsize=32768'] 当运行git checkout x或者git clean -df ,我们会收到权限被拒绝的消息。 $ git clean -df warning: failed to remove modules/node_modules/acorn/bin/acorn warning: failed to remove modules/node_modules/acorn/bin/generate-identifier-regex.js … 运行ls -Z modules/node_modules/acorn/bin/acorn $ ls -Z modules/node_modules/acorn/bin/acorn -rwxr-xr-x. 503 games system_u:object_r:nfs_t:s0 modules/node_modules/acorn/bin/acorn 哪个是共享的正确用户/组以及正确的文件上下文,与可移动文件完全相同。 例如 $ ls -Z […]

小VMDK文件

我有一个全新的VMWare ESXi 6.5独立主机。 我创build了一个虚拟机,并在其上安装了Ubuntu 16.04.1服务器。 我注意到VMDK文件在安装后只有549字节。 VM运行得很好。 有人可以解释为什么VMDK文件是如此之小,安装的操作系统去了哪里? 以下是详细信息: 主机:ESXi 6.5 数据存储:Synology NFS共享 VM:1GB RAM,16GB精简configuration驱动器,名称:test2 操作系统:Ubuntu 16.04.1服务器,encryption的6GB LVM,VMWare工具安装 VMclosures时NFS文件夹中的文件: test2.nvram – 9 KB test2.vmsd – 0 KB test2.vmx – 4 KB test2.vmxf – 4 KB test2_0.vmdk – 1 KB vmware.log – 293 KB

无可奈何的检查一个目录

我有一个安装nfs份额的可靠的手册。 它首先确保目标目录存在: – name: create /mnt/tmp file: path=/mnt/tmp recurse=yes state=directory – name: mount nfs mount: src=10.0.0.2:/data/apache/htdocs name=/mnt/tmp fstype=nfs fstab=/etc/fstab state=mounted opts="user,rw,hard,intr,auto" 这个工作正常,我第一次运行的剧本,但如果我重新运行它挂在create /mnt/tmp任务。 我做错了吗? 我如何debugging问题? 我把剧本改成了这个,而这个问题用一种相当不合理的方式“解决”了: – name: check if /mnt/tmp exists stat: path=/mnt/tmp register: p – name: create /mnt/tmp when: not p.stat.exists file: path=/mnt/tmp recurse=yes state=directory – name: mount nfs mount: src=10.0.0.2:/data/apache/htdocs name=/mnt/tmp fstype=nfs […]

rpc.mountd :/ xxx和/ yyy首先使用相同的主机文件句柄

我使用s3fs-fuse在/yyy上安装了一个S3存储桶,而在/xxx上安装了一个正常的驱动器。 我用NFS导出,但是当客户端尝试安装时,我看到以下错误: rpc.mountd[pid]: /xxx and /yyy have same filehandle for <client_hostname>, using first 非s3挂载使用以下命令导出: /xxx client_hostname(async,no_root_squash,no_subtree_check,rw) 和S3的安装: /yyy client_hostname(async,no_root_squash,no_subtree_check,ro,fsid=1,crossmnt)

无法挂载另一个Linux服务器的NAS NFS共享

我有一个NAS服务器已经成功安装在我的一台服务器上进行备份,但是当我试图在另一台服务器上执行时,我得到“mount.nfs:服务器在安装时拒绝访问” 所有的指南让我检查目标服务器上的/ etc / exports文件,但该文件是空白的! 那么现在的服务器每天如何备份呢?为什么新版本没有安装呢? 谢谢

公开在ZFS卷下挂载的未导出的文件系统,作为卷的NFS共享的一部分

我在我用作networkingNAS(称为data / nas&'data'raidz zpool的一部分)的服务器上有一个ZFS卷,我使用ZFS属性设置sharenfs通过NFS将这个卷暴露给我的LAN。 这工作很好,并已经非常简单的pipe理。 我最近有一个8TB的希捷档案SMR硬盘,充满了我想通过我的NAS的NFS共享暴露的一些数据。 由于这是一个档案SMR驱动器,我只想装载和公开这个驱动器在只读模式下(因为在这些驱动器上的重写性能预计是很糟糕的),这可能不是一个很好的候选添加到ZFS(都是由于事实上它已经存在,并且SMR驱动器不是ZFS下performance最好的)。 目前的格式是UFS。 我想要做的是将驱动器挂载到某个地方(比如说/ mnt / foo),然后将挂载该位置的数据绑定到我的数据/ nas ZFS共享目录下,从而通过现有的NFS共享公开数据。 我已经读过在sharenfs选项中设置一些crossmnt和nohide的组合,可能会允许两个NFS导出之间的这种关系。 但是,由于我的存档驱动器不是ZFS,因此使用它的NFS导出也不会像ZFS卷那样简单; 即使这个策略是有效的。 有谁知道,如果这种跨文件系统的NFS策略可以工作,特别是如果挂载的子文件系统不是ZFS NFS导出(或任何NFS导出,就此而言)? 如果是的话,需要configuration什么types的选项来确保跨NAS连接可靠地访问这个子文件系统? 仅供参考:此服务器运行SmartOS(Illumos),因此具有本机ZFS和UFS文件系统支持。