我们有一个运行在虚拟机上的PHP的Apache服务器。 文档根目录位于用户的主文件夹( /home/users/{first letter}/{username}/ )内,而/home/users/则通过NFS进行安装。 看来有什么奇怪的事情发生。 当一些用户请求一个文件(在这个例子中,我使用Hondenbol.png )它需要很Hondenbol.png (起初用户认为它根本没有加载),而对于其他人(对于我来说,在这种情况下)它几乎立即加载。 这是该vHost的Apache日志文件的一部分。 我注意到的唯一奇怪的事情就是HTTP状态码之后的数字,据我所知,这是(来自Apache文档)。 2326 (%b) The last part indicates the size of the object returned to the client, not including the response headers. If no content was returned to the client, this value will be "-". To log "0" for no content, use %B instead. 同一个文件应该有这么大的差别吗? 或者,这与浏览器caching有关吗? […]
我们正在向我们的networking应用程序添加一个function,其中上传的文件(到应用程序服务器)由后台工作人员(其他机器)处理。 应用程序的性质意味着这些文件在一定的时间内存在。 在worker上执行的代码知道文件何时变得不相关,并且应该在那个时候删除文件。 我的直觉是要求我们的系统pipe理员使用NFSbuild立共享文件夹。 任何Web服务器都可以将文件保存到NFS中,任何工作人员都可以将其保存起来。 信令和编排工作通过共享Redis实例中的数据进行。 关于NFS,我被告知: 通常,对于这种用例,我们将所有上传请求路由到单个Web服务器。 处理上传的服务器将把文件写入一个目录,比如/ data / shared / uploads,然后以只读的方式将其同步到所有其他服务器。 听起来他们不喜欢NFS。 我问问题是什么。 有人告诉我: 对于NFS或任何其他共享文件系统,问题总是相同的 – 它引入了单点故障。 不仅如此,它还将所有服务器紧密结合在一起。 一台服务器出现的问题会影响到其他服务器,从而破坏了负载平衡和解耦的目的。 目前,我们有多个Web服务器和工作人员,但仍然是单一的DB和Redis实例。 所以我们已经有了一些我们紧密联系在一起的失败点。 NFS是如此的有问题以至于上面的参数是有效的?
我有一个2.2TB RAIDarrays的Ubuntu 8.04系统,是我家庭networking的中央存储。 我有几个Windows XP专业版系统,我想读取/写入Linux存储,我也想能够挂载一些Windows目录,当我在Linux中。 什么是最透明,无故障的共享文件的方式? 我很久以前就尝试过Samba,但是我不喜欢它(对不起,我记不清楚为什么,我认为这是权限/属性的问题)。 然后,我安装了Windows服务的Unix和NFS进行。 我已经使用了一年,但它仍然不是那里(它堵塞文件> 2GB,每次我重新启动Windows时,我收到一条错误消息)。 所以我很好奇别人怎么实现这个…什么效果最好? 澄清:我需要在Ubuntu 8.04上运行服务器 – 这是我的MythTV后端,因为我想要24/7全天候运行的两件事情是后端和文件服务器,我希望它们运行在同一台机器上以保存功率。
目前我们正在考虑一个解决scheme,为每个用户的主目录创build一个单独的挂载点。 而我们以前在客户端上每个文件服务器上最多只有一对挂载,现在我们可能有数百个挂载,许多来自同一个文件服务器。 这显然影响客户端,因为有更多的坐骑,它也影响文件服务器,因为有更多的出口要跟踪吨。 在我们的环境中,我们正在讨论每个文件服务器数百个客户端和每个客户端数百个用户(即,在文件服务器上可能不超过10000个输出)。 我的问题是具体关于这个解决scheme的功效。 如果这个问题不好,还有其他的解决办法,但是由于种种原因,有些政治问题,这个问题已经上升到了顶峰。 客户端都是linux,文件服务器是linux和solaris系统的混合体。 我所关心的是内核跟踪坐骑和共享的资源是有限的,但是我并不确定它的function是什么。
我有一些服务器上的UID和GID是不同的相同的用户名和组名。 当我NFS从一个服务器挂载一个表面上由同一个用户拥有的目录时,由于UID / GID不匹配,用户无法访问这些文件。 有没有办法映射UID和GID? 谢谢。
我正在阅读关于VMware ESXi的一些关于存储的文章。 提到的一件事就是能够使用vMotion,DRS等来实现高可用性。 我一直看到的是“共享存储”一词。 这是什么意思? 现在我正在运行带有iSCSI后端(单个Linux服务器)的ESXi服务器。 即使只有一台服务器可以连接到一个目标,这是否被认为是共享存储。 考虑到NFS允许许多连接到相同的数据,它比iSCSI有优势吗? 有人能给我一个主意吗? 我正在考虑将我的iSCSI服务器转换为NFS。 ESXi(4.0+)也支持NFSv4吗?
我们正在决定是否在我们的VMWare数据存储的Filer上使用SATA或SAS聚合。 我们将使用NFS将VMWare主机连接到存储。 如果使用通过千兆networking的NFS(1/8 GB / s),使用具有6GB / spipe道(15000 RPM)的SAS磁盘似乎没有意义。 我们正在合作NIC卡,但仍然是1/4 GB / s(在理想条件下)。 SATA磁盘是7200 RPM,根据规格,3GB /秒。 也许有更多现实世界经验的人可以检查我的逻辑。 附加信息 SAS和SATA聚合具有相同数量的磁盘。
我试图确定在同一主机上运行的两台Xen虚拟机(客户端和服务器)之间的nfs性能差的原因。 具体来说,根据两台虚拟机之间测得的networking连接速度,以及在服务器上直接读取文件的测量速度,我可以顺序读取客户端上1GB文件的速度远低于预期的速度。 虚拟机运行Ubuntu 9.04,服务器使用nfs-kernel-server软件包。 根据各种NFS调优资源,更改nfsd线程数(在我的情况下是内核线程)会影响性能。 通常这个build议是根据在重用服务器上的默认值8来增加的。 我在我目前的configuration中find: RPCNFSDCOUNT=8 :(默认值):13.5-30秒,在客户端捕获一个1GB的文件,这样35-80MB /秒 RPCNFSDCOUNT=16 :18s RPCNFSDCOUNT=16文件60MB / s RPCNFSDCOUNT=1 :8-9秒来RPCNFSDCOUNT=1文件(!!?!)125MB / s RPCNFSDCOUNT=2 :87s RPCNFSDCOUNT=2文件12MB /秒 我应该提到,我要导出的文件位于使用Xen的PCI-passthrough安装在服务器上的RevoDrive SSD; 在服务器上,我可以在几秒钟内(> 250MB /秒)捕获文件。 每次testing之前,我都会在客户端上放置caching。 我真的不想离开只有一个线程configuration的服务器,因为我猜测,有多个客户端时不会工作,但我可能会误解如何工作。 我重复了几次testing(改变两者之间的服务器configuration),结果相当一致。 所以我的问题是: 为什么1线程的性能最好? 我试过改变的其他一些东西,几乎没有影响: 将/ proc / sys / net / ipv4 / ipfrag_low_thresh和/ proc / sys / net / ipv4 / ipfrag_high_thresh的值从默认值192K增加到512K,1M 将/ proc […]
我们有一个拥有8个IQ 12000x节点的Isilon群集,通过多个NFS共享为less数Linux和Solaris客户端导出存储。 有一个Linux系统安装了这些NFS文件系统之一。 Linux系统对这个文件系统的I / O比较重。 每3-4周(没有任何明显的时间表,有时比这更频繁),我们注意到所有的活动停止在这个NFS挂载(过程挂起,就好像networking停止工作,所以过程是陷入不间断的睡眠) – 30分钟后,份额恢复,事情继续正常工作。 受影响机器的内核日志如下: Dec 3 10:07:29 redacted kernel: [8710020.871993] nfs: server nfs-redacted not responding, still trying Dec 3 10:37:17 redacted kernel: [8711805.966130] nfs: server nfs-redacted OK 相关的/etc/fstab行: nfs-redacted:/ifs/nfs/export_data/shared/…redacted… /data nfs defaults 0 0 我已经检查是否有任何计划的进程,如cron作业,Isilon相关的function,如快照等,可能会导致这些hangups,但我似乎无法find任何东西。 我也不知道任何networking相关的问题或维护,将导致这一点。 所有的locking每个内核日志持续几乎30分钟。 也许有人有一些build议,我可以尝试? (为了避免与访问文件系统的进程相关的问题,我认为这是一个软装入(soft mount);但是,对于可能导致的破坏谨慎,无论如何也不能解决潜在的问题)。
在Goggle上有很多关于这个错误的引用,甚至在这里也有一个相同标题的问题,但是似乎“安装时服务器拒绝访问”似乎是一个万能的错误。 我已经尝试过其他人用来解决这个问题的build议,但是在我的情况下他们没有工作。 我正在尝试为Linuxnetworking设置一个基于Kerberos的NFS文件服务器。 我正在使用Ubuntu 11.04服务器和客户端。 尝试使用以下命令安装共享时: mount 192.168.1.115:/export/home/ /media/tmp 我得到: mount.nfs: access denied by server while mounting 192.168.1.115:/export/home/ 如果我从客户机或从服务器本身安装它,这是一样的。 在服务器上,在/var/log/syslog我得到: Aug 25 06:22:37 nfs mountd[1580]: authenticated mount request from 192.168.1.115:835 for /export/home (/export/home) Aug 25 06:22:37 nfs mountd[1580]: authenticated unmount request from 192.168.1.115:766 for /export/home (/export/home) 这是很奇怪的,因为它说它是authentication的要求,而不是否认。 / etc / exports中: /export *(rw,fsid=0,crossmnt,insecure,async,no_subtree_check,sec=krb5p:krb5i:krb5) /export/home *(rw,insecure,async,no_subtree_check,sec=krb5p:krb5i:krb5) […]