我正在尝试在Ubuntu 14.04系统上设置NFS。 我正在按照这里的指示。 我试图configuration翻译使用静态。 /etc/idmapd.confconfiguration文件设置如下: [General] Verbosity = 0 Pipefs-Directory = /run/rpc_pipefs # set your own domain here, if id differs from FQDN minus hostname # Domain = localdomain [Mapping] Nobody-User = nobody Nobody-Group = nogroup [Translation] Method = static [Static] [email protected] = mhicks mhickXXXXX = mhicks 我可以使用mount命令从Windows访问NFS。 问题似乎是用户不正确。 如果我在具有777权限的目录中创build文件,则用户标识和组标识不正确,4294967294或-2。 我认为无身体是-1(我可能是错的)。 我无法弄清楚为什么翻译不能正常工作。 drwxrwxrwx 5 mhicks […]
我有几个运行Linux的工作节点,我在其上dynamic调配KVM虚拟机。 现在,我将NFS服务器上的qcow2映像复制到节点上,运行虚拟机,关机后图像被移回NFS服务器。 有没有办法避免“复制”的步骤(感谢10Gnetworking,它是快速的,但不是即时),并使用像亚马逊的EBS服务,最好在节点的本地固态硬盘上的“块caching”?
我正在尝试使用cloud-config.yml定义一个systemd挂载,以便cloud-config.yml在启动时挂载一个kerberized文件系统。 文件系统提供者已经把我使用cloud-config.yml write_files部分写入/etc文件夹的krb5.conf和krb5.keytab交给我了。 这是我的安装规范: – name: mnt-backup.mount enable: true content: | [Mount] What=vid52590.nas1.lan:/vid52590 Where=/mnt/backup Options=sec=krb5 Type=nfs [Install] WantedBy=multi-user.target 当系统尝试挂载nfs文件系统时,我通过journalctl得到以下消息: Sep 12 16:30:40 backend systemd[1]: Mounting /mnt/backup… Sep 12 16:30:40 backend systemd[1]: mnt-backup.mount: Mount process exited, code=exited status=32 Sep 12 16:30:40 backend systemd[1]: Failed to mount /mnt/backup. Sep 12 16:30:40 backend systemd[1]: mnt-backup.mount: Unit entered failed […]
我正在计划将nginxcaching移到基于networking的存储,我主要关心的是select一个具有良好性能和低延迟的基于networking的文件系统。 我看到很多人在尝试使用小文件时都抱怨NFS或者GlusterFS的设置。 当然,他们的许多问题可以通过一些调整来解决,但是我想知道如果做我做的事情甚至是一个好的举动! 所以我的问题是NFS或GlusterFS可用于nginxcaching文件?
我正在尝试使用NFSv4而不是NFSv3来装载位于Server1上的共享。 主机服务器正在运行RHEL 5.1(不要求),客户机正在运行RHEL 7.3。 我可以毫无问题地使用NFSv3来挂载它,但是我正在做一大堆每天都在移动的小文件,如果我使用NFSv4,性能会有明显的提高。 我正在运行以下命令: mount -v -type nfs4 server1:/export/foo /nfsmnt/foo 我得到: mount(2): Input/output error mount system call failed 如果我做 mount -v -type nfs -o nfsvers=3 server1:/export/foo /nfsmnt/foo 它工作得很好。 我已经确认客户端和服务器都支持NFSv4,使用rpcinfo -p。 防火墙目前都closures。
我有两个AWS EC2 Ubuntu实例。 我在这两台主机上configuration了NFS来共享Gitlab之间的目录。 我打开了AWS防火墙,因此可以接受,并且使用Nmap打开了端口 服务器1具有IP XX.XX.XX.XX 服务器2具有IP YY.YY.YY.YY 在我的fstab我configuration在服务器1上: XX.XX.XX.XX:/var/opt/gitlab/.ssh /var/opt/gitlab/.ssh nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 XX.XX.XX.XX:/var/opt/gitlab/gitlab-rails/uploads /var/opt/gitlab/gitlab-rails/uploads nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 XX.XX.XX.XX:/var/opt/gitlab/gitlab-rails/shared /var/opt/gitlab/gitlab-rails/shared nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 XX.XX.XX.XX:/var/opt/gitlab/gitlab-ci/builds /var/opt/gitlab/gitlab-ci/builds nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 XX.XX.XX.XX:/var/opt/gitlab/git-data /var/opt/gitlab/git-data nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 Iny我的服务器2的fstab: YY.YY.YY.YY:/var/opt/gitlab/.ssh /var/opt/gitlab/.ssh nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 YY.YY.YY.YY:/var/opt/gitlab/gitlab-rails/uploads /var/opt/gitlab/gitlab-rails/uploads nfs defaults,soft,rsize=1048576,wsize=1048576,noatime,lookupcache=positive 0 2 YY.YY.YY.YY:/var/opt/gitlab/gitlab-rails/shared /var/opt/gitlab/gitlab-rails/shared […]
我有几个FreeBSD的V10和V11组合,都有一些二进制文件挂载在nfs上。 不幸的是,当一个被执行的时候,它仍然被上传到nfs服务器。 我会期望这些进程崩溃,但结果是处于等待状态vmpfw的进程的多个实例,并试图find包含二进制文件的目录,sym链接导致shell冻结 我已经在所有的机器上完成了一个能够清除这个问题的电源循环,但是有一些地方会变得非常不方便。 有什么方法可以杀死这些进程,并恢复响应能力
好的,这个很奇怪。 我刚刚重新启动了我的整个家庭networking。 花了一点,但让所有的东西都回来了。 我有一个媒体库nas,在NFS / SMB上共享一些驱动器,还有一个旧的打浆机Ubuntu机器。 现在我的nas没有问题。 然后我的imac连接到SMB的SMB和所有出现。 然后我启动我的Ubuntu的盒子。 首先IP被改变了,所以我把它切换到了静态,并让所有的服务重新开始。 但后来我注意到,当我到达挂载点时,驱动器没有安装,我有点惊讶地看到这一点 total 32K drwxr-xr-x 8 root root 4.0K Oct 2 21:48 . drwxr-xr-x 23 root root 4.0K Aug 2 03:06 .. drwx—— 2 root root 4.0K Jul 3 18:44 datastorage01 drwx—— 2 root root 4.0K Aug 2 04:06 movies01 drwx—— 2 root root 4.0K Aug […]
Hy所有, 请帮我快点。 我有一个安装了NFS的CentOS 6服务器。 在我的/ etc / exports文件中: /shares/nfs 10.0.0.0/16(rw,sync,no_subtree_check,no_root_squash) exportfs -a完成了 在我的客户端,我在/ etc / fstab中有这个 10.0.X.XX:/shares/nfs /mnt/fs nfs hard,intr,retrans=2,rsize=32768,wsize=32768,noatime,timeo=600,nosuid 0 0 一个客户端安装该文件夹就好了,另一个给nobody:nobody用户和文件的权限,因此我的应用程序不能使用它? 为什么这个发作? UID在客户端和服务器上都是相同的,我们不使用域名,只使用IP地址。 请协助,我不想在周末在这里工作。 :/ 干杯! 伯特
我们通过本地重写http://www.mikerubel.org/computers/rsync_snapshots/来快照用户树。 我们在用户文件所在的位置运行我们自己的NFS服务器,并最近更改了硬件。 一些NFS客户端的性能问题被追溯到快照周期,所以我们尝试在NFS服务器上加载资源; 我们通过cron在NFS服务器本身上运行快照,并且在6个子节点上并行(服务器有16个内核)。 没有帮助。 为了得到一个数据点,我把快照移动到了一个不同的机器,一个不是很忙的NFS客户机。 突然间,性能问题解决了。 我根本不明白这一点。 如果我运行的是rsync,其源和目标都在NFS上,那么NFS服务器本身应该会更快,而不是数据必须通过networking的客户端呢? 然而,rsync似乎是CPU密集型(高负载平均),我会预期I / O限制。 任何人都可以为我清除这个奥秘吗?