Articles of nfs

将linuxnetworking共享目录挂载到另一台linux服务器的目录中

如果这是一个noob问题,我提前道歉。 我有两台服务器, NFS服务器:usanfsd01 LINUX服务器:usalnxd01 我必须将usanfsd01:/ nfs / data目录挂载到usalnxd01:/ lnxwd目录中。 我知道如何通过/ etc / fstab来挂载。 但是唯一值得关注的是usalnxd01:/ lnxwd目录里面已经有一些文件了,所以挂载不起作用。 我没有别的select,只能在lnxwd目录上挂载networking共享,想知道除了我之外还有别的select,不得不将lnxwd目录下的文件临时移动到别的地方,然后挂载它,然后把文件复制回来。 这里的问题是,如果我将文件移动到lnxwd目录中,我只是担心它可能会破坏其他依赖于这些文件的其他东西。 所以我想我会在这里寻求一些专家意见。 任何帮助将不胜感激。

如何启用nfsd在Ubuntu Linux上支持IPv6?

我需要在Ubuntu Linux服务器上启用IPv6 NFS支持。 该服务器支持IPv4 NFS。 Linux信息 – root@nimbus-nfsserver:~# uname -a Linux nimbus-nfsserver 2.6.35-22-server #35-Ubuntu SMP Sat Oct 16 22:02:33 UTC 2010 x86_64 GNU/Linux IPv4和IPv6 IP地址都已启用: root@nimbus-nfsserver:~# ifconfig eth0 Link encap:Ethernet HWaddr 00:50:56:b1:30:88 inet addr:10.114.165.41 Bcast:10.114.191.255 Mask:255.255.224.0 inet6 addr: fc00:10:114:191:250:56ff:feb1:3088/64 Scope:Global inet6 addr: fe80::250:56ff:feb1:3088/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:25486 errors:0 dropped:0 overruns:0 […]

哪个networking文件系统可以处理大量的子目录?

我需要一个networking文件系统,可以同时从多台机器上访问,并且仍然能够保持单个目录的100.000个子目录。 如果有人想知道为什么有这些要求:服务器(JIRA)存储问题编号的子目录中的每个问题的附件。 如果你有一个有100000个问题或更多的项目,你可能会很容易结束处理这个数目的目录。 为了解决这个问题,前一段时间,我们从NetApp文件系统切换到XFS,因为XFS支持这个数量的文件/目录。 尽pipe如此,我们还有另一个问题:XFS不允许从不同的机器进行并发访问,即使对于READ操作也是如此,我们希望有一个更像NFS的解决scheme,能够有多台可以访问这些文件的机器。 磁盘操作的数量相当低,主要用于读取和文件几乎从不更新。 我们可以用什么呢?

用本地冗余分发网站文件

因此,我们正在考虑将我们的单个专用服务器(如共享虚拟主机设置)迁移到具有多个负载平衡前端服务器和独立数据库服务器(由于stream量增长和可用性问题)的体系结构。 TLDR; 当文件服务器出现故障时,我想要一些故障转移到站点文件的本地只读镜像。 场景: 大约200个虚拟主机,每个都有一些别名 每个站点基本上只有一个“包装器”,大约只有30个本地文件,大部分只是模板文件,其余的只是从一个集中的代码库 站点基本上是只读的,除了一个caching目录(可以在每个主机上分开) 没有第三方访问站点文件(即不共享) 每个网站只能获得2-10k次点击/月 目标/要求: 对任何单个服务器进行维护或由于错误而处于脱机状态时,都要具有适应性 定期进行less量文件更新的一些集中方式(手动,只是正常的站点更新),最好通过FTP 在最多5秒内将更改传播到前端服务器是可以接受的 如果一台服务器意外脱机,我会很高兴最多10分钟的文件更改丢失 在这个阶段,我们可能只会看到两台全时运行的前端服务器,另外还有一台文件服务器 可能会在AWS上实施 更多的前端服务器可能会定期添加和删除 我意识到一个典型的方法是通过版本控制进行部署,这是我们在某些情况下已经做的,但是我们的工作人员(非开发人员,主要pipe理横幅,文本更新等)非常适用于“FTP”工作stream程,我想改革,但也许还没有。 以下是我提出的解决scheme: rsync部署 文件服务器承载可通过FTP访问的站点文件的“主”副本,并通过rsync服务器公开这些副本。 我有某种“部署”接口触发每个前端服务器rsync站点和“部署”。 优点 很简单 在文件服务器上允许“暂存”版本,这可能是有用的 每个前端服务器都有自己的文件副本,如果文件服务器处于脱机状态,则不会有任何问题 缺点 有多可靠? 可能会混淆已部署的内容以及未部署的内容 NFS 具有本地caching​​的NFS文件服务器,定期rsync本地备份,然后可能通过将绑定的挂载点切换到本地备份进行故障转移。 优点 可能支持写作(不是必要的) NFS在某种程度上更简单 除非发生停电,否则应始终保持同步 缺点 我不确定本地NFScaching的效果如何,以及是否会自动使修改对象的caching无效。 没有本地caching​​NFS很慢? 我非常确定,我需要一些心跳才能触发故障切换,并在主机恢复联机时挂载主机 Gluster等 我对这个选项并不是很熟悉,但是我相信当你拥有大量的服务器时,这是一种常见的方法。 我看了一些文档,可能是合适的,但是我没有看到很多人推荐这么小规模的文档。 优点 会允许读写 支持caching我认为,应该比非cachingNFS更快? 自动复制,恢复和故障转移 缺点 我喜欢有一个可以快照和备份的单个“主”卷的想法,我不认为有一个选项可以在gluster中说“这个节点必须有一个完整的副本”。 有了这么小的服务器池,似乎你可能很容易意外地终止了两台服务器,而这两台服务器恰好有一些数据的副本 所以,我的问题是: NFS真的是我唯一的select吗? 我应该考虑其他select吗? 这些选项中的哪一个最适合我的需求? 编辑: 感谢你们的回应,我开始意识到,考虑到我的需求规模(相对较小),我正在把事情变得太复杂。 […]

在CentOS 6.5上找不到NFS服务器日志

我在CentOS 6.5机器上找不到NFS服务器的日志。 grep -Rni "nfs" /var/log/messages没有任何用处。 NFS服务正在运行,我可以从大多数其他客户端计算机上挂载NFS共享,因为其中一台客户端计算机无法挂载NFS共享。

vmware中的nfs客户端:服务器拒绝访问?

我有两台configuration相同的/ etc / fstab和相同版本的Ubuntu LTS。 fstab文件 otherhost:/otherdir /mnt/otherdir nfs defaults 0 0 挂载nfs客户端时: mount /mnt/otherdir 一台机器工作,另一台失败,出现“服务器拒绝访问”错误。

如何find悬挂过程的原因(可能是I / O相关)

在Ubuntu 14.04上,当我打开文件浏览器或“打开文件”对话框时,应用程序挂起大约5到10秒钟。 我怀疑这是由于一些NFS请求。 但是我怎么能find肯定的? 有没有办法显示所有的文件系统访问和他们的延迟? 主目录和许多其他目录通过NFS从远程机器上挂载。

ESXi 5使用凭据进行NFS安装

ESXi 5主机是否可以使用除root以外的凭据装载远程NFS共享? (默认)? 如果是这样,那么将如何设置这些凭据并从VSphere挂载?

附加卷并在启动时设置内部IP

我有一个基于Ubuntu 14.04的NFS服务器AMI,包含一个Launch Configuration和一个只有一个实例的Auto Scaling组(min / max / req)。 这只是为了确保如果服务器停机,一个新的会自动replace它。 共享目录位于连接的EBS卷上。 我需要确保当一个服务器出于任何原因而出现故障,并且出现一个新服务器时,它将具有相同的内部IP,并将EBS连接到它,以便它可以继续为NFS客户端服务。 我认为最好的方法是使用cloud-init。 任何想法如何附加EBS和设置一个内部IP将不胜感激! 先谢谢你! 艾米特。

如何在Debian和VM上的Xen主机之间最好地保护NFS?

经过一番研究,似乎在我的Debian Xen主机和虚拟机之间共享文件的最佳方式是使用NFS。 如何保护NFS以便只有指定的虚拟机可以访问它? 使用IP地址和iptables可以工作,但它似乎并不是最安全的方法。 我可以阻止我的bond0接口上的NFS,并允许它在主机和虚拟机之间使用xenbr0接口? 这里是我的/etc/network/interfacesconfiguration: source /etc/network/interfaces.d/* # The loopback network interface auto lo iface lo inet loopback # network interfaces auto eth0 iface eth0 inet manual bondmaster bond0 auto eth1 iface eth1 inet manual bondmaster bond0 #lacp bonded interface auto bond0 iface bond0 inet manual bond-mode 4 bond-miimon 100 bond-lacp-rate 1 bond-slaves eth0 […]