Articles of nfs

mount.nfs:安装时服务器拒绝访问

在我的Ubuntu系统上,我在/ etc / fstab中有这一行: myserver:/home/me /mnt/me nfs rsize=8192,wsize=8192,timeo=14,intr 当我这样做 sudo mount -a 我得到: mount.nfs: access denied by server while mounting myserver:/home/me 我怎样才能诊断这个问题? nfs服务器也是Ubuntu。 其他详细信息:我可以从同一networking上的其他Ubuntu客户端挂载此nfs共享,没有任何问题。 但是,有问题的客户端是不同的,因为它是在Windows系统的VirtualBox内部运行的。 我可以从有问题的客户端ping“myserver”。 编辑: “myserver”上的/ etc / exports: /home/me *(rw,all_squash,async,no_subtree_check,anonuid=1000,anongid=1000) “myserver”上的/etc/hosts.allow和/etc/hosts.deny都是注释。 请记住,我可以很好地连接到同一networking上的其他客户端。

如果大小没有改变,Vagrant NFS共享不会显示更新的文件

在NFS上安装/迁移时,如果大小不变,主机上的已更改文件不会刷新。 快速更新/错字不会立即反映,除非我做了足够大小的修改是不同的。 我试图设置lookupcache = none,但是除了让一切变慢,没有任何改变。 我使用OSX ML作为主机,Arch Linux作为guest。 NFS是v3(由于OSX)。

为什么select通过NFS的NAS?

从最终用户的angular度来看,NAS设备和从文件服务器使用NFS导出有什么区别? 他们似乎完成了同样的最终结果。 SAN和其他文件存储之间的区别与我(如我的经验)有关如何连接到服务器基础结构。 但是,通过标准以太网端口连接的NAS和通过networking共享存储器的NFS(区别于通过networking的特定服务器)似乎更加模糊。 selectNAS Filer而不是仅仅在服务器上运行NFS有很好的理由吗?

NFS v3与v4

我想知道为什么NFS v4会比NFS v3快得多,如果v3上有任何参数可以调整。 我挂载一个文件系统 sudo mount -o 'rw,bg,hard,nointr,rsize=1048576,wsize=1048576,vers=4' toto:/test /test 然后运行 dd if=/test/file of=/dev/null bs=1024k 我可以读取200-400MB / s,但是当我更改版本为vers=3 ,重新安装并重新运行dd,我只能获得90MB / s 。 我正在读取的文件是NFS服务器上的内存文件。 连接的两端都是Solaris,并具有10GbE NIC。 我通过在所有testing之间重新安装来避免任何客户端caching。 我使用dtrace在服务器上查看数据通过NFS服务的速度。 对于v3和v4我改变了: nfs4_bsize nfs3_bsize 从默认的32K到1M(在V4上,我用32K的最高速度为150MB /秒)我试过调整 nfs3_max_threads clnt_max_conns nfs3_async_clusters 提高V3的性能,但没有去。 在v3上,如果我运行四个并行dd ,吞吐量从90MB / s下降到70-80MB,这导致我认为问题是一些共享资源,如果是的话,那么我想知道它是什么,如果我可以增加那个资源。 dtrace代码获取窗口大小: #!/usr/sbin/dtrace -s #pragma D option quiet #pragma D option defaultargs inline string ADDR=$$1; dtrace:::BEGIN […]

调整NFS以获得最小延迟

如何才能实现NFS导出的低延迟,以便让开发人员在Eclipse / Visual Studio中正常工作,并通过NFS装入工作空间?

NFS存储VMware磁盘映像的最佳文件系统select

目前,我们使用iSCSI SAN作为多个VMware ESXi服务器的存储。 我正在研究在Linux服务器上使用NFS目标以用于其他虚拟机。 如果能够提供显着的优势,我也愿意使用其他操作系统(如OpenSolaris)。 什么Linux文件系统支持非常大的连续文件(如VMware的磁盘映像)? 另外,人们如何在OpenSolaris上findZFS来处理这种工作负载? (这个问题最初是在SuperUser上提出的,如果你知道如何,可以随意迁移答案)。

CentOS 6 + LDAP + NFS。 文件所有权被卡在“无人”

我一直在努力使CentOS 6上的LDAPauthentication和NFS导出主目录工作几天。 我已经到了可以使用LDAP中的用户名和密码login到客户机的时候了。 在客户端上,/ home和/ opt通过NFS挂载在fstab上。 但是,/ opt和/ home中的每个文件都由客户端上的nobody:nobody (uid:99,gid:99)所有。 然而我的uid和gid似乎是正确设置的: -bash-4.1$ id uid=3000(myusername) gid=3000(employees) groups=3000(employees) 我还能检查什么? 这里是我的客户端上的一些configuration文件: /etc/nsswitch.conf中 passwd: files sss shadow: files sss group: files sss hosts: files dns bootparams: nisplus [NOTFOUND=return] files ethers: files netmasks: files networks: files protocols: files rpc: files services: files netgroup: files sss publickey: nisplus automount: files ldap […]

如何设置cachingnetworking共享的NFS服务器?

用户数据存储在两个相当大(> 1 PB)的OpenStack Swift存储集群中。 让他们成为A组和B组 。 另外,还有几个PoP需要与这些数据交互。 这些PoP中的服务器实际上是无盘的,这意味着没有用户数据存储在它们上面或者下载到它们。 PoP可以分为普通的世界地区 (如北美 , 南非 , 中欧等)。 有些PoP距离任何集群的Swift端点相当远,引入了不希望有的延迟。 为了稍微缓解这个问题,我想在每个区域设置一个caching网关服务器,这将caching到最近的集群的r / w请求。 目前,任何PoP中的客户端都通过永久安装的swift虚拟文件系统来访问用户数据,该虚拟文件系统是将Swift Object Storage作为块设备(或多或less)安装的FUSE模块。 然而,svfs在一开始和未来都不是那么稳定,客户端应该通过NFS访问caching服务器。 这是所需架构的一个分支的示意图: +——————+ +——————+ NFS +——————+ | Cluster A | SVFS | Region 1 Cache +———-> R1 PoP a Client | | +—————-> | | | |Persistent Storage| |Ephemeral Storage+—-+ |Generates R/W Load| +—————–++ […]

NFS如何在Debian上读caching?

我打算使用NFS来提供很多小文件。 他们会经常阅读,所以客户端caching是至关重要的。 NFS是否处理这个? 有什么方法来增加客户端caching在某种方式? …或者我应该看看另一种解决scheme? 定期使用rsync或unison进行同步不是一个选项,因为这些文件在客户端不时被修改。

为什么挂载的nfs服务器返回只读文件系统错误

我正在使用Ubuntu服务器64位。 我已经挂载了一个nfs作为rw,但是每当我尝试在挂载点上编辑任何东西时,我得到一个只读的文件系统错误 我的etc/fstab读取: # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc nodev,noexec,nosuid 0 0 /dev/mapper/product-root / ext4 errors=remount-ro 0 1 UUID=1cae6948-ca9d-4f0b-aec6-9e7a60bbbad8 /boot ext2 defaults 0 2 /dev/mapper/product-swap_1 none swap sw 0 0 /dev/fd0 /media/floppy0 auto rw,user,noauto,exec,utf8 0 0 vnxnfs1.company.com:/NFS2 /mnt/nfs2 nfs defaults 0 0 mount返回: /dev/mapper/product-root on / type ext4 (rw,errors=remount-ro) […]