Articles of nfs

Linux NFS在大约15分钟后挂起

当谈到pipe理Linux和NFS时,我有些新鲜,请耐心等待。 我们正在努力在工作中build立一个小群集。 目前该系统只有2个DELL高端工作站,运行CentOS 6.5。 为了方便pipe理用户和文件,我们决定通过NFS共享/ home目录,并从/ etc( passwd , group , shadow和gshadow (这是通过将它们移动到一个子目录,并使用链接把它们放回/ etc)) 这些文件在服务器上的/ etc / exports中共享: /home/ xxx0/24(rw,sync,no_root_squash,no_all_squash) /etc/sub_dir/ xxx0/24(rw,sync,no_root_squash,no_all_squash) 这些文件在客户端的/ etc / fstab文件中被挂载: server_name:/home/ /home/ nfs rw,sync,hard,intr 0 0 server_name:/etc/sub_dir/ /etc/sub_dir/ nfs rw,sync,hard,intr 0 0 完成设置后, 系统运行良好大约一个月 。 只要服务器处于打开状态,当客户端启动时,所有服务器的用户都可见,而且所有的文件也是如此。 但是,大约5天前,它开始行动起来。 客户启动后,大约15分钟(给或拿)工作正常。 用户可以在本地或通过SSHlogin。 在第一次15分钟之后,系统几乎完全locking。 新用户无法login,login用户无法执行任何操作。 (像移动鼠标的基本东西仍然工作)。 只有让系统重新启动的方法是closures客户端并重新启动。 不幸的是,这也意味着客户端debugging非常困难。 我们已经缩小了与上述文件的NFS共享有关的问题。 (我们知道这是因为禁用/ etc / fstab中的挂载允许客户端返回到它自己的本地文件,并且一切正常) […]

NFS服务器可以限制NFS客户端可以使用的磁盘空间量吗?

假设在一个具有100GB分区的服务器A中,用户创build一个NFS导出目录。 在服务器B中,用户挂载NFS共享使用它。 在服务器A中,NFS服务器可以限制NFS客户端可以使用的磁盘空间量吗? 或者客户端将始终能够使用可用的全部磁盘空间?

是否可以将来自不同服务器的文件系统合并为一个文件系统?

我有3个物理服务器(server01,server02和server03)和本地存储。 我已经在三台服务器上创build了/ app文件系统,并在那里安装了存储。 我需要能够从3个服务器组合应用文件系统,并将其作为一个文件系统从server01调用/ total_app。 这可能吗? 我怎么能在Linux操作系统中做到这一点。

find负责颠倒NFS挂载的用户

我有一个大的多用户系统,NFS安装了一大块共享存储。 我可以确定所有networkingstream量的来源 – 缩小到一个特定的主机 – 感谢nfsstat 。 然而,我仍然在追查哪些用户正在做这件事情有点困难 – 有几百个,在进程列表中没有任何明显的罪魁祸首。 (我通常从查找实例开始) 但是,我们肯定会有2.5k IOPS来自它,并导致主机上的资源问题。 有人能够提供我的build议,找出罪魁祸首进程/用户? Box是一个RedHat Linux,与NetApp文件pipe理器交谈。

build议在Windows上的NFS v3服务器的解决scheme?

我正在寻找一个解决scheme来启动并运行在Windows上的NFS v3服务器。 我曾尝试使用cygwin,但是他们的NFS服务器版本是v2,其中有2GB文件的限制。 我试图从大于2GB的分区上的unix驱动器(使用ufsdump)获取分区。 据我所知,这个命令不能跨文件。 任何帮助将不胜感激。 干杯。

在Debian linux上lockingNFS服务器时出现问题

我们最近升级了一个NFS服务器(称为“ian”),在升级之后,NFS被破坏,而之前没有。 该服务器现在运行Debian“lenny”,内核版本为2.6.26-2; 这是一个真正古老的戴尔PowerEdge 2650.以下是我们在票据系统中logging的问题的详细信息: 以下是一些与此相关的日志消息: kern.log: Oct 7 10:37:50 ian kernel: [60831.093676] statd: server localhost not responding, timed out Oct 7 10:37:50 ian kernel: [60831.093739] lockd: cannot monitor jade-30.example.com Oct 7 10:38:20 ian kernel: [60871.021326] statd: server localhost not responding, timed out Oct 7 10:38:20 ian kernel: [60871.021403] lockd: cannot monitor jade-30.example.com Oct 7 10:38:50 […]

Linux NFS性能vs其他FS

预计NFS将比任何“普通”文件系统(如EXT3)慢。 通过networking传输文件是额外延迟的主要原因。 我想知道NFS如何与其他文件系统进行比较。 让我们假设NFS服务器和客户端位于同一个千兆位局域网上。 另外,假设我们只有10个客户。 有没有我们可以看的基准? 我们可以说一些像下面这样的吗? 与其他文件系统相比,NFS延迟范围从150%到200% 当然,影响延迟的因素很多,如磁盘读写操作和文件大小。 我们可以有一个近似的延迟差异测量?

在Linux中挂载nfsnetworking共享时出错

我试图在各种操作系统(Ubuntu 10.10 / 10.10服务器/ 11.10)中安装一个nfsnetworking共享,但不断得到相同的错误: mount.nfs: access denied by server while mounting 128.251.xxx.xxx:/Systems 我已经validation了我的机器上安装了nfs-common 。 而我的/etc/fstab mount命令如下: 128.251.xxx.xxx:/Systems /home/me/uslonsnas001 nfs async,rw,hard,intr 0 0 networking设备是希捷NAS,下面是设备设置的一些截图(通过网页界面)。 validation是否为名为“Systems”的共享点启用了NFS validation设备上是否启用了NFS服务 validation共享设置为启用公共访问: 那么我还有什么可以让这个挂载工作失踪?

保持文件同步在两台服务器上

我已经build立了一个运行nginx的web服务器,另外一台服务器在Linode虚拟机上运行php-fpm。 Nginx将所有的PHP请求代理到PHP后端,这很好。 问题在于,实际的Web文件需要同时存在于Web服务器和PHP工作者上,需要同步。 这是如何完成的? 我在想一个最佳的解决scheme是使用共享存储(NFS)并在每个服务器上安装存储,但我没有这方面的经验。 任何好的指导呢? Linode甚至有可能吗? 另一个解决scheme(虽然不是很好),将会每3秒运行一次像rysnc,但是会有同步滞后,更不用说所有额外的networking活动了。 感谢您的想法。

文件修改滞后

我们有一个奇怪的问题,即从NFS客户端创build/删除文件需要很长时间才能传播到其他客户端。 我们在客户端安装的选项有: defaults,rsize=32768,wsize=32768,intr,noatime,cto 出口有: *(rw,sync,no_root_squash,no_wdelay) 我们通过一个客户端进行validation: watch -n0.1 stat foofile 而在另一个客户端上,我们触摸了foofile(或者rm)。 修改需要1秒以上的时间才能传播出去。 cto和no_wdelay是我们最近添加的选项,看看他们是否解决了这个问题(他们不)。 我们还能看看什么?