我有一个双节点集群,每个节点有两个硬盘。 mpiuser的主目录通过NFS( 在这里使用指南)在节点之间共享。 每个节点的第二个硬盘被用来创build一个gluster卷。 现在我想把gluster卷(gv0)挂载到mpiuser里面的一个目录(让我们说从头开始),并从头开始运行mpi代码。 但是当我挂载gv0 / home / mpiuser / scratch时,只有root可以在其中创build文件。 因此,mpiuser无法运行代码并生成文件。 我登上它的方式是使用 sudo mount.glusterfs 192.168.0.100:/gv0 / home / mpiuser / scratch 我希望得到这个工作的任何build议。
我有一个NFS Ubuntu服务器,并在所有客户端共享/ opt目录。 我想在/ opt目录下安装软件包,这样我就不必在所有的客户端上安装它。 所以我做的是下载.deb文件并尝试使用该命令 dpkg –root = / opt -i pkg.deb 我得到以下错误。 dpkg:错误:无法访问dpkg状态区域:没有这样的文件或目录 我该如何解决?
我们有一个存储服务器,由于某种原因,不能直接联系(当然不在同一networking)。 所以我们认为我们需要创build一些链式的NFS共享, ServerA —-> ServerB –(?)–> ServerC 但是,无论何时我们想要挂载一个已经从ServerA共享的文件夹来挂载到ServerC上,我们首先将文件夹挂载到ServerB(这很好),然后尝试从ServerB导出挂载的文件夹以挂载到ServerC。 但是,当我们testing它时,这不起作用。 我相信我们不能做一个链式的NFS共享或者我失去了一些东西。 有没有办法做到这一点? 谢谢
我有一些(6)装有NFS共享的文件夹。 所有运行的Ubuntu 14.01和NFS服务器是从Ubuntu包标准的NFS服务器。 这很好。 但是,当通过一个系统重命名共享文件时,在其他系统看到重命名之前可能需要大约半分钟的时间。 重命名后调用客户端上的同步不起作用。 这是延迟写入caching的行动吗?
我有一个FreeNAS解决scheme,我想保存我的备份。 目前我正在做一些rsync / tarball脚本,但是我想要一个更容易pipe理的东西,所以我想,在另一台服务器上运行一个简单的备份解决scheme,同时在FreeNAS服务器上存储备份。 两台服务器都位于1Gbit LAN上。 我打算使用NFS,从FreeNAS导出文件系统并将其挂载到“备份导向器”上。 NFS是个好主意吗? 我应该尝试其他的东西,如sshfs,iSCSI等?
我们有由ldap驱动的用户身份validation和由autofs挂载的nfs服务器上共享的主目录。 我们最近在三台新机器上安装了Ubuntu 15.04,并像往常一样将它们添加到我们的基础架构中。 一台机器由#1人configuration,另外两台机器由#2人configuration。 另外两个有问题:) 问题是文件的所有权在主目录中搞砸了。 所有文件都有一个像4294967294这样的任意所有者ID。 我们已经比较并最终复制了所有(我相信)重要的configuration文件: /etc/ldap.comf /etc/idmapd.conf 在/ etc / default / nfs中常见 /etc/auto.master文件 /etc/auto.home 这两台有问题的机器与第三台机器相比,nfs的访问时间也非常长。 软件版本与我们不断更新所有这些系统相同。 有任何想法吗? 也许一些日志文件,可以报告所有权解决问题?
自从我们的客户从Ubuntu 12.04升级到Ubuntu 14.04后,我们遇到了麻烦。 行为: 在客户端AI上更改nfs共享上的现有文件foo。 在客户端BI上做一个猫富。 第一次安装后,它的工作。 猫显示foo的内容。 但是,如果我再次更改客户端A上的foo,并在BI上执行cat获取错误:cat:foo:No such file or directory 对B做一个ls解决这个问题, cat foo再次显示新的内容。 但是,如果我再次更改客户端A上的foo,客户端B上的猫将无法工作。 分析: 如果B上的程序首先调用“stat”,则一切正常。 但是如果像猫这样的程序直接使用系统调用打开它不会find文件! 使用tcpdump和wireshark,我可以看到Ubuntu 12.04使用正确的(更新后的)文件句柄在“PUTFH”下的NFS分区中调用,但是在14.04中,文件句柄是错误的(等同于在系统A上更改之前的旧文件句柄)。 现在非常有趣的部分:如果我在服务器站点上的nfs共享驻留在ext4文件系统上,并通过/ etc / exports共享,则nfs服务器将返回错误代码NFS4ERR_STALE。 客户端(B)会用正确的文件句柄做第二个请求,一切工作正常。 甚至在14.04。 如果服务器站点上的nfs共享驻留在ZFS文件系统(ZoL 0.6.4.1,CentOS 7和Ubuntu 14.04)上,并通过sharefs选项或/ etx / exports共享,则nfs服务器将回答错误代码NFS4ERR_NOENT。 客户端将失败。 问题:1.如何获得较新的客户端(14.04+),像在12.04上一样正确地更新文件句柄2.(或者)如何让服务器在ZFS文件系统上使用NFS4ERR_STALE进行回答? 或者,服务器应该如何按照规范来回答? 问候Joerg
什么是超过2个服务器的高可用性nfs背后的基本过程? 假设我正在使用心跳信号故障切换2之间的浮动IP。然后,我有一个第三方服务器,挂载基于该IP的nfs共享。 这个想法是我可以操作文件,然后如果发生故障转移,nfs将保持活动状态,并且当nfs和IP切换到另一个服务器时它将暂时不可用。 不过,我想知道工作stream程。 在手动故障切换的时刻,我可以将node1设置为drbd primary,并将drbd作为nfs export以浮动IP进行安装。 然后,如果我想故障转移,我可以卸载drbd驱动器,将服务器设置为辅助,然后将node2设置为primary,装入drbd nfs,然后新节点将在node2上出现。 这是正确的想法? 如果我尝试正常卸载nfs / drbd挂载,可能会失败,因为nfs仍在访问它(也就是说,如果第三方服务器正在访问共享)。 有没有办法通过手动故障转移来实现类似的stream程,但是可以快速进行故障转移?
我一直在迁移一个旧的服务器在Ubuntu下运行apache2 + mysql到运行debian(wheezy)的新服务器。 迁移工作正常,而数据库在localy(在我们的情况下/ srv / mysql),但当我尝试将它们移动到我们的集中存储运行NFS和创build移动文件的符号链接mysql似乎并没有find数据库所有。 我没有从MySQL的错误,它似乎只是相信没有这样的数据库。 这是/ srv / mysql的布局(几个例子): user@server:/srv/mysql# ls -al total 135440 drwxr-xr-x 50 mysql mysql 4096 May 22 09:59 . drwxr-xr-x 7 root root 4096 May 22 09:59 .. drwxrwx— 2 mysql mysql 4096 May 21 20:13 database_dir_1 drwx—— 2 mysql mysql 4096 May 21 19:07 database_dir_2 drwxrwx— 2 […]
我有一个NFS服务器,正在与共享/出口/东西正常工作。 然而,当我挂载/出口/东西在/ dev / mapper /东西(lvm有更多的空间)的nfs不工作。 nfs服务器是一个centos7。 nfs的客户端是debian8。 / etc / fstab中: <file system> <mount point> <type> <options> <dump> <pass> /dev/mapper/centos-something /exports/something xfs defaults 0 0 nfs客户端绑定到/ exports /之前没有问题/ exports / something变成了lvm上的挂载。 如果我卸载lvm,那么nfs共享会重新开始工作,如果我重新挂载/导出/ lvm上的某些事情nfs重新停止工作(但lvm工作)。 我怎样才能让nfs客户端绑定到nfs服务器上的lvm挂载? 当它不起作用时,服务器有所有的守护进程运行,但客户端只有在他身边的文件。 没有日志条目的nfs。 我想切换nfs挂载,使其在lvm上。 debian8客户端上的Nfs版本: nfs-common 1:1.2.8-9 centos7服务器上的Nfs版本: libnfsidmap.x86_64 0.25-11.el7 @base nfs-utils.x86_64 1:1.3.0-0.8.el7 @base