Articles of nfs

在/ proc / mounts输出中有多个/ dev / root

如何解释在/ proc / mounts中包含不同文件系统的多个/ dev / root设备? # cat /proc/mounts rootfs / rootfs rw 0 0 /dev/root / ext3 rw,data=ordered 0 0 /dev /dev tmpfs rw 0 0 /proc /proc proc rw 0 0 /sys /sys sysfs rw 0 0 /proc/bus/usb /proc/bus/usb usbfs rw 0 0 devpts /dev/pts devpts rw 0 0 /dev/hda1 /boot ext3 […]

NFS4:rpc.idmapd或nfs.idmap upcall?

https://www.kernel.org/doc/Documentation/filesystems/nfs/idmapper.txt指出: The file /etc/request-key.conf will need to be modified so /sbin/request-key can direct the upcall. The following line should be added: #OP TYPE DESCRIPTION CALLOUT INFO PROGRAM ARG1 ARG2 ARG3 … #====== ======= =============== =============== =============================== create id_resolver * * /usr/sbin/nfs.idmap %k %d 600 This will direct all id_resolver requests to the program /usr/sbin/nfs.idmap. 从Ubuntu […]

NFS自动挂载程序 – 挂载点父目录中的文件/目录

我在Redhat Ent Linux 5主机上遇到NFS问题,因为我想在/opt/backup和/opt/stage上挂载一些NFS共享。 在/opt中还有一些其他目录和文件,例如/opt/myapp , /opt/otherapp , /opt/test等等,我们希望在挂载NFS共享时访问它们。 目前,从/etc/fstab启动的NFS共享都运行良好。 不过,我们希望通过autofs / automounter来按需安装/opt/backup和/opt/stage ,而不是从/etc/fstab启动。 我已经这样configuration,使得NFS共享使用autofs / automounter挂载OK,但是当自动挂载程序在挂载点上挂载NFS共享时,我无法在/opt看到其他文件。 是否可以使用自动挂载程序在/opt/backup和/opt/stage上挂载NFS共享,并仍然可以访问/opt的其他文件,即。 /opt/myapp , /opt/otherapp , /opt/test等? 如果这样怎么样? 我已经运行了一个演示会议已经粘贴在下面的一些意见,试图帮助解释这个问题。 谢谢。 这里是演示: # / opt有两个装载点目录“backup”和“stage”以及dirs“lost + found” # “myapp”“otherapp”和文件“test” [root@jttest6 etc]# ls /opt backup lost+found myapp otherapp stage test #我们列出NFS挂载点 – 没有文件,NFS共享没有挂载(此时Autofsd没有运行) [root@jttest6 etc]# ls /opt/backup [root@jttest6 etc]# ls /opt/stage […]

ghettoVCB:错误:由于VMDK备份中的错误,无法备份MACHINE-NAME

我在VMware ESXI 5.0.0 Update 1上,想要使用ghettoVCB脚本来备份我的虚拟机。 dryrun非常好: 2012-10-24 11:47:46 — info: ###### Final status: OK, only a dryrun. ###### 但是,当我尝试执行实际的备份时,我的主机上的每个VM都收到以下消息: 2012-10-24 11:48:43 — info: Initiate backup for Willert-Tools 2012-10-24 11:48:43 — info: Creating Snapshot "ghettoVCB-snapshot-2012-10-24" for Willert-Tools 2012-10-24 11:48:47 — info: ERROR: error in backing up of "/vmfs/volumes/datastore1/Willert-Tools/Willert-Tools_1.vmdk" for Willert-Tools 2012-10-24 11:48:47 — info: ERROR: error […]

Bonding模式0是否在Cisco SG100上运行并且为NFS获得2GB的速度?

我打算购买一台切换台,将两台服务器分别连接到两块网卡(英特尔公司I350千兆networking连接)。 我读了“balance-rr是唯一的一个TCP连接实际可以达到2 Gb / s的模式” linux balance-rr(bond mode = 0)是否可以与所有交换机一起工作? 。 而且它还说“实际上balance-rr和balance-xor在没有任何其他交换机上的交换机configuration的情况下工作得很好”。 那么,思科SG100是否会为了balance-rr工作,或者我必须selectSG200还是其他非pipe理型交换机,如D-link DGS-1024T ? 我认为NFS应该为每个文件请求使用1个连接,所以即使我select了其他绑定模式(2,4,5,6),实际上在2个服务器之间的cp文件时,速度仍然会高于1GB / s。 这是正确的吗 ? 另外,我想知道Samba是否会受到windows客户的影响,正如那篇文章所说的“CIFS不能很好的兼容rr”。

使用具有绑定接口的NFS-root

我想configuration我们的服务器以两个绑定接口的NFS根启动。 我设法使用启用了NFS根启动的initrd和以下内核参数,使用一个networking接口成功设置NFS根目录 root=/dev/nfs nfsroot=192.168.1.1:/nfsroot/ubuntu ip=dhcp initrd=initrd.img 我发现有关如何在博客文章中设置与NFS-root绑定的信息 。 由于我使用的是Ubuntu,所以必须将绑定模块添加到/etc/initramfs-tools/modules的末尾。 我build立一个新的initrd并使用内核参数 root=/dev/nfs nfsroot=192.168.1.1:/nfsroot/ubuntu biosdevname=0 bond=bond0:eth0,eth1:mode=4:miimon=100:lacp-rate=1:slaves=none:xmit_hash_policy=layer3+4 ip=bond0:dhcp initrd=initrd.img 当我启动服务器时,我得到一个内核恐慌,显示在消息之后 ipconfig: can't parse IP address 'bond0' 任何人都可以帮我解决这个问题吗? 启动日志的相关部分可以在这个要点中find。 更新: 在深入了解Ubuntu引导过程后,我发现目前有两种不同的方法来创build初始ramdisk。 Ubuntu使用initramfs-tools,RedHat使用最新的dracut工具。 我引用的博客文章是为Fedora编写的,为dracut列出的引导参数对Ubuntu不可用。 由于我无法弄清楚如何处理与initramfs工具的绑定接口,我在Ubuntu上使用了dracut,并在博客文章中写下了我的发现。 安装和configurationdracut以通过VLAN标记的networking从NFS-root引导Ubuntu 12.10使用绑定的接口 。

在CentOS上以NFS作为datadir的MySQL

我试图在CentOS上使用NFS mount作为datadir来设置MySQL。 当使用mount时启动mysqld时出现这个错误: chown: changing ownership of '/srv/mysql': Operation not permitted 我需要知道哪些选项必须设置为NFS导出,以便MySQL可以启动并更新已装入的文件夹和文件。

如何在VM guest虚拟机中安装NFS共享?

我们有一台安装了Win7-x64的机器。 在这台机器上,使用VirtualBox,我们运行一个客户Fedora-x64。 我们在这个Fedora实例上定义了一个NFS共享。 这是/ etc / exports中的条目: / dvr 192.168.0.0/192.168.255.255(rw) windows机器的ip地址是192.168.1.100,Fedora guest虚拟机的ip地址是192.168.1.110。 虚拟机的组网模式设置为桥接组网。 现在,从另外一个linux机器上,当我们ping到Fedora guest(192.168.1.110)时,我们得到的回应就好了。 但是,当我们尝试挂载nfs共享时,我们得到了“无路由到主机”的错误。 我们使用的命令是: mount -t nfs 192.168.1.110:/dvr / mnt / test 只是为了确定没有iptables的问题,在fedora的客人,我们做了: 服务iptables停止 并重新尝试登上,无济于事。 任何想法在我们的设置中可能是错误的? 所有这些机器通过集线器相互连接。 Linksys路由器configuration为DHCP服务器,所有机器都从中获取IP地址。 谢谢。

如何在solaris ZFS上查找顶级io文件?

我有一个基于Solaris 10 ZFS的NFS服务器。 物理磁盘或多或less处于其最大IO速率。 性能非常糟糕 – 所以我们将添加主轴。 NFS仅用作XenServer Hypervisors的存储。 我想知道哪些VM磁盘(意味着存储上的.vhd文件)正在产生大部分的负载。 我如何查询文件系统或可能nfsd得到一个iostat或顶部像输出文件名和读取/写入。 数字可以是绝对的或相对的。 我试过iosnoop 。 这绝对是正确的方向。 不幸的是,它似乎无法获取ZFS文件系统上的文件名。 我没有dtrace的经验。 也许那里已经有一个脚本?

NFS4 + Kerberos:BAD_ENCRYPTION_TYPE,GSS:encryptiontypes不允许,挂在“正在下载”

我正试图让NFS4 + Kerberos在Debian Squeeze上工作。 我有3台testing机器:nfsserver,nfsclient,nfskerberos 我得到的是: root@nfsclient:~# mount -v -t nfs4 -o sec=krb5 nfsserver.mydomain.com:/export /import mount.nfs4: timeout set for Fri Apr 5 10:15:33 2013 mount.nfs4: trying text-based options 'sec=krb5,addr=10.10.16.207,clientaddr=10.10.16.208' mount.nfs4: mount(2): Permission denied mount.nfs4: access denied by server while mounting nfsserver.mydomain.com:/export 我认为问题是在nfsclient < – > nfskerberos通信。 在嗅探这些系统之间的networkingstream量之后,我看到如下消息: error_code: KRB5KDC_ERR_ETYPE_NOSUPP (14) […] e-text: BAD_ENCRYPTION_TYPE [只有nfsclient与nfskerberos通信。 nfskerberos上nfsserver没有stream量。] […]