据我所知,pNFS是NFSv4.1的扩展协议。 有没有人有关于NFS锁如何在并行NFS(pNFS)上工作的信息?
据我所知,在并行NFS中,从元数据服务器获取布局后,客户端直接与数据服务器通信。 如果多客户端同时读取或写入数据服务器的同一区域,我会漫不经心。 是否有任何lockingpNFS的机制。
我正在尝试将文件从本地目录移动到CentOS 7服务器上的nfs挂载目录。 这个出口是由FreeNAS提供的。 这两个目录都由当前用户拥有至less755(nfs显示为777,但我不知道我相信它)。 我的fstab看起来像这样 host:/path/to/export /mnt/nfs nfs defaults 0 0 我无法移动文件 mv /local/file /mnt/nfs/file mv: cannot create regular file 'file': Operation not permitted 但是我可以复制并删除它 cp /local/file /mnt/nfs/file rm /local/file mount输出 host:/path/to/export on /mnt/nfs type nfs (rw,relatime,vers=3,rsize=65536,wsize=65536,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=host,mountvers=3,mountport=908,mountproto=udp,local_lock=none,addr=host) 客户端上的目录权限 ls -ld /local /mnt/nfs drwxrwxrwx. 15 user user 17 Nov 28 08:32 /mnt/nfs/ drwxrwxrwx. 2 root root […]
从SSH看起来很好: [root@FREENAS1] ~# ping SERVER1 PING SERVER1.local.domain.com (192.168.2.2): 56 data bytes 64 bytes from 192.168.2.2: icmp_seq=0 ttl=128 time=0.265 ms 64 bytes from 192.168.2.2: icmp_seq=1 ttl=128 time=0.365 ms ^C — SERVER1.local.domain.com ping statistics — 2 packets transmitted, 2 packets received, 0.0% packet loss round-trip min/avg/max/stddev = 0.265/0.315/0.365/0.050 ms [root@FREENAS1] ~# sqlite3 /data/freenas-v1.db "update directoryservice_activedirectory set ad_enable=1;" […]
我使用QNAP NAS作为Ubuntu主目录的存储服务器。 一切似乎工作正常,到目前为止,我没有遇到任何问题的文件权限。 输出线的安装是: 192.168.0.200:/homes/myuser on /home/myuser type nfs (rw,relatime,vers=3,rsize=524288,wsize=524288,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.200,mountvers=3,mountport=30000,mountproto=udp,local_lock=none,addr=192.168.0.200) 但是,当我尝试克隆到我的主目录的git存储库时,我得到以下输出和错误消息: myuser@ubuntu ~/test % git clone -v https://github.com/robbyrussell/oh-my-zsh.git Cloning into 'oh-my-zsh'… POST git-upload-pack (140 bytes) remote: Counting objects: 17463, done. fatal: Unable to create temporary file '/home/myuser/test/oh-my-zsh/.git/objects/pack/tmp_pack_XXXXXX': Permission denied fatal: index-pack failed 运行该命令后,目录test甚至不包含名为oh-my-zsh的子目录。 它仍然是空的。 目录/home/myuser/test/ getfacl显示以下输出: myuser@ubuntu ~/test % getfacl . # file: . # […]
我正在执行数据分析,需要使用R编程语言(特别是bigmemory软件包)将大约112GB的大数据matrix加载到内存映射文件中(请参阅https://cran.r-project.org/web/packages/bigmemory /index.html )。 matrix有80664列和356751行。 数据存储由NFS挂载的XFS文件系统组成。 XFS挂载选项是: xfs noatime,nodiratime,logbufs=8,logbsize=256k,largeio,inode64,swalloc,allocsize=131072k NFS正在使用以下选项导出FS: rw,async,no_subtree_check,no_root_squash NFS客户端正在使用这些选项安装FS: defaults,async,_netdev 在加载文件之后,计算节点变得无响应(包括群集上的其他节点),文件服务器日志报告以下错误: XFS: possible memory allocation deadlock in kmem_alloc (mode:0x250) 我可以通过像这样删除caching来解决这个问题: echo 3 > /proc/sys/vm/drop_caches 文件服务器有16 GB的内存。 我已经阅读了以下博客: https://blog.codecentric.de/en/2017/04/xfs-possible-memory-allocation-deadlock-kmem_alloc/ 然而,这个问题并不是由于碎片化,因为我写信给的文件系统报告的碎片率低于2%。 所以,由于上面的XFS错误,我认为文件服务器内存不足,因为它无法处理当前任务发出的IO请求数量。 除了周期性地放弃caching(例如,通过cron )之外,还有更长久的解决scheme吗? 先谢谢您的帮助。 编辑:客户端和服务器上的CentOS 7.2。 在客户端和服务器上编辑#2:Kernel 3.10.0-229.14.1.el7.x86_64。
我为静态内容创build了一个子域 ,以便能够通过多个负载平衡的Web服务器更有效地服务它。 这个静态内容会自动更新 ,每天大约1k个文件。 现在,我使用rsync以主/从方式更新服务器,但由于内容数量越来越多,100k +文件需要越来越多的时间,并且在主服务器和从服务器上都增加了I / O负载 。 我不能使用我在提高rsync性能问题上提出的解决scheme,因为我无法知道哪些文件被修改而没有stat所有这些问题,并且不能解决增加的I / O成本问题 。 我也必须处理文件删除。 我想在奴隶上使用诸如ar / o NFS之类的东西,但是这可能会在某种程度上挫败负载均衡效果,并且造成了无偿的SPOF 。 顺便说一句,服务器运行AIX,但我也有兴趣在一个更通用的上下文解决scheme。
我们是虚拟化的新手,我们正在计划将我们的在线服务器变成虚拟化的服务器,主要用于维护,备份和恢复改进。 最初,我们只有一个真实的虚拟系统负载加1-3复制testing和恢复,也许是一个小的集中syslog虚拟机。 如果可能的话,我们希望主机包括一个iptables plus rsync备份到其他机器和一些其他全球安全系统。 由于这一点以及我们托pipe供应商的服务,我们主要考虑Proxmox的简单性(我们喜欢它的网页pipe理面板),同时我也明白OpenVMZ系统的容器方法可能适合我们的设置。 基本系统附带debian,所以我们可以个性化它符合我们的要求。 Proxmox安装默认安装虚拟机的LVM分区。 我们的疑虑是,考虑到以下事实,最好的分区结构是什么: 如果需要的话,我们希望拥有一个可以引导的根分区镜像(我们的提供程序支持通过控制面板从另一个分区引导系统) 我们理想地希望有一个可以在虚拟机系统之间共享的分区。 我们仍然不知道这是否可以直接用OpenVMZ容器,否则我们正在考虑通过在主机上通过NFS共享来做到这一点。 我们希望使用proxmox主机pipe理员可用的备份系统对VM备份进行编程,然后将其rsync同步到另一台计算机上。 有了这个基于Linux Raid的aprox(750Gb),我们正在考虑类似于: ext3_1/ – (20Gb) ext3_2/bak_root – (20Gb) mostly unmounted, root partition sync LVM_1 /var/lib/vz – (390Gb) partition for virtual images LVM_2 /shared_data – (30Gb) LVM_3 /backups – (300Gb) where all backups would be allocated 我们使用Proxmox进行的初始testing似乎遇到了像这样的快照备份问题,这可能是由于它们无法在另一个LVM分区上完成(错误:命令'lvcreate –size 1024M –snapshot –name vzsnap-ns204084。 XXX.net-0 […]
我们在一些主机上执行一些守护进程。 守护进程可执行映像是在NFS上托pipe的非常大的二进制文件。 在NFS服务器上更新二进制文件时,以前运行的守护进程有时会因总线错误而死机。 我假设发生了什么事是NFS服务器以NFS客户端上的VFS层不可见的方式replace二进制文件,所以他们最终从更新的二进制文件加载页面,这当然会导致疯狂。 我们尝试移动新的二进制文件到位而不是cp,但是这似乎不能解决它。 我正在考虑在守护进程启动脚本中简单地使用mlock(),但确实存在我们应该滥用的神奇的NFS选项或语义。 有没有更好的方法来解决这个问题?
除了“对于客户端和服务器相同”,NFSv4域名必须被设置为特别的东西吗? 我的意思是,它是否必须在我的局域网或某个域名?