这个问题以前被问到堆栈溢出,但那里的好人build议我尝试在这里的社区。 我正在研究关于各种文件系统的稀疏文件,并试图find一些具体的说明稀疏文件是由networking文件系统(NFS)或服务器消息块(SMB)支持的。 我知道SMB在Windows中被广泛使用,根据这个条目 ,SMB服务器可以支持稀疏文件,即使底层文件系统不支持。 但是,如果我是正确的,那么不支持稀疏文件的文件系统只会用零填充“漏洞”,这可能会导致性能问题。 关于NFS,我一直无法find关于使用NFS支持稀疏文件的任何事情。 因此,我的问题是, NFS和SMB支持稀疏文件吗?
在服务器节点上,可以访问导出的文件夹。 但是,重新启动后(服务器和客户端),该文件夹不再可以从客户端访问。 在服务器上 # ls /data Folder1 Forlder2 和/ etc / exports文件包含 /data 192.168.1.0/24(rw,no_subtree_check,async,no_root_squash) 在客户端 # ls /data ls: cannot access /data: Stale NFS file handle 我不得不说,从客户端共享文件夹没有问题,但重新启动后(服务器和客户端),我看到这个消息。 任何方法来解决这个问题?
我的服务器使用NFS(networking文件系统),我无法使用PHP的flock()function。 有没有办法在NFS上locking文件或是否需要这样做?
问题 我们在一个现有的平台上有一个性能问题,所以我现在正在转向蜂巢式的思想,对此有第二个意见。 性能问题到目前为止与IOPS而不是吞吐量有关。 情景 一个16个主机的刀片中心,每个都有64GB的RAM。 (这是一个戴尔M1000e瓦特/ M610s,但这可能不相关)500个虚拟机,所有的Web服务器(或相关的networking技术,如MySQL,负载平衡等),约90%是Linux和其余的Windows。 pipe理程序是VMWare vSphere。 我们需要提供主机HA,所以本地存储不在。 因此,主机只需要一张SD卡即可启动。 一点背景思考 目前我们最多有6台主机(刀片服务器中心将会在目前的增长时间内处于满负荷状态),而且我们正在运行iSCSI到戴尔MD3220i w / MD1220进行扩展。 我们考虑过的可能的select,以及与他们一起的直接想法: 通过NFS数据存储区分散虚拟机,并运行满足性能要求的NFS存储器,以满足给定数量的虚拟机。 NFS看起来比较便宜,并且被抽象得比块级存储更多,所以我们可以根据需要移动它。 添加更多的MD3220i控制器/目标。 我们担心这样做可能会对VMWare处理大量目标产生负面影响。 将所有磁盘从Nearline SAS交换到SSD。 这应该完全解决IOPS问题,但是降低存储容量有明显的副作用。 而且它还是非常昂贵的。 vSphere 5有一个存储设备。 我们还没有研究这么多,但它一定能运作好吗? 问题 你会在下面运行什么样的存储? 它不需要扩展到另一个刀片中心,只需要为所有这些VM提供相对较好的性能。 我不是在寻找“购买SAN x,因为这是最好的”答案。 我正在寻找关于各种SAN技术(iSCSI,FC,FCoE,InfiniBand,NFS等),不同types的存储(SATA,SAS,SSD)以及处理100多个虚拟机的存储方法的思考(合并,分离,Sharding等)。 绝对的任何想法,链接,指南,指针等在这方面是值得欢迎的。 我也很想听听我们已经考虑过的上述选项的想法。 非常感谢任何input! 更新3月5日'12 迄今为止的一些精彩回应,非常感谢大家! 到目前为止,对这个问题的回答,我开始认为以下路线是: 将可用存储器分层到VMWare群集,并将VM磁盘放置在合适的存储器上用于其工作负载。 有可能使用能够自动pipe理数据放置到合适存储的SAN。 Infiniband看起来是最具成本效益的,以满足主机满负荷所需的带宽。 这听起来似乎是值得使用主要SAN供应商的售前服务来获得他们的scheme。 我将继续考虑这个问题一段时间。 同时,更多的build议感激地收到!
让自己陷入一个棘手的情况。 在/ mnt / 1上安装aufs aufs on /mnt/1 type aufs (rw,relatime,si=daab1cec23213eea) 我不能卸下这个东西: sudo umount -f /mnt/1 umount2: Stale NFS file handle umount: /mnt/1: Stale NFS file handle umount2: Stale NFS file handle umount2: Stale NFS file handle 我如何卸载挂载点? (无需重新启动系统) (注意:aufs位于openafs系统之上,而不是NFS。)
我无法通过vagrant获取NFS设置: 在我的本地机器上,我已经安装了NFS: apt-get install nfs-common nfs-kernel-server 并在我的Vagrantfile设置它被使用: config.vm.share_folder("v-root", "/vagrant", ".", :nfs => true) 在vagrant up我得到: exportfs: /home/<user>/path/to/dir does not support NFS export Mounting NFS shared folders failed. This is most often caused by the NFS client software not being installed on the guest machine. Please verify that the NFS client software is properly installed, and […]
'exportfs -r'在我试图导出/ home / user / share(ext4)时返回这个错误: exportfs:警告:/ home / user / share不支持NFS导出。 / etc / exports中: / home / user / share 192.168.1.3(rw,no_subtree_check) 系统是带有nfs-kernel-server软件包的Ubuntu 10.04。 任何想法为什么发生这种情况? 是因为ext4吗?
我有两台机器连接10Gbit以太网。 让其中一个是NFS服务器,另一个是NFs客户端。 使用iperftestingTCP上的networking速度在两个方向上显示iperf Gbit / s吞吐量,因此networking正常。 testingNFS服务器的磁盘性能: dd if=/dev/zero of=/mnt/test/rnd2 count=1000000 结果是〜150 MBytes / s,所以写入磁盘工作正常。 服务器的/etc/exports是: /mnt/test 192.168.1.0/24(rw,no_root_squash,insecure,sync,no_subtree_check) 客户端使用以下选项将此共享挂载到本地/mnt/test : node02:~ # mount | grep nfs 192.168.1.101:/mnt/test on /mnt/test type nfs4 (rw,relatime,sync,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.102,local_lock=none,addr=192.168.1.101) 如果我尝试从NFS共享下载客户端机器上的大文件(〜5Gb),我会得到〜130-140兆字节/秒的性能,这接近服务器的本地磁盘性能,所以它是令人满意的。 但是当我尝试上传大文件到NFS共享时,上传以〜1.5 Mbytes / s开始,缓慢增加到18-20 Mbytes / s并停止增长。 有时候,在上传实际开始之前,共享“挂起”了几分钟,即主机之间的stream量变得接近于零,如果我执行ls /mnt/test ,在一两分钟内不会返回。 然后ls命令返回,并以最初的1.5Mbit / s速度上传。 当上传速度达到最大值(18-20 Mbytes / s)时,我运行iptraf-ng ,在networking接口上显示iptraf-ng Mbit / s的stream量,所以networking不是这里的瓶颈,也是服务器的硬盘。 我试过的: […]
我试图在两个RHEL7节点之间configurationNFS : 第一个节点: [root@ip-10-164-175-246 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 7.0 (Maipo) [root@ip-10-164-175-246 ~]# rpm -q nfs-utils nfs-utils-1.3.0-0.el7.x86_64 [root@ip-10-164-175-246 ~]# cat /etc/exports /var/www/html/ ip-10-184-161-46.ec2.internal(rw) [root@ip-10-164-175-246 ~]# 第二个节点: [root@ip-10-184-161-46 ~]# mount ip-10-164-175-246.ec2.internal:/var/www/html/ /mnt/ [root@ip-10-184-161-46 ~]# touch /mnt/$$ touch: cannot touch '/mnt/3326': Permission denied [root@ip-10-184-161-46 ~]# 为什么我不能在/mnt/ over NFS上写任何东西?
我有一个远程分区,我使用NFS本地安装。 “坐骑”给出 192.168.3.1:/mnt/storage-pools/ on /pools type nfs (rw,addr=192.168.3.1) 在服务器上我有出口: /mnt/storage-pools *(rw,insecure,sync,no_subtree_check) 然后我尝试 touch /pools/test1 ls -lah -rw-r–r– 1 65534 65534 0 Dec 13 20:56 test1 chown root.root test1 chown: changing ownership of `test1': Operation not permitted 我错过了什么? 把我的头发拉出来。