我可以创build另一台服务器,使用主服务器的/ etc / passwd来authentication它的用户,如果我共享用户的家园,那么他们可以在主目录中做他们想做的一切,而不消耗主服务器的CPU / RAM。 我试图build立一个可扩展的应用程序,而不会让我的主服务器有数百万个文件请求,所以我的目标是围绕主服务器构build处理服务器。 感谢:D 注意: – 主服务器是存储所有用户文件的地方。 – 主服务器正在运行plesk 9.2 – 是的这是一个共享的宿主环境
应该有一个简单的答案,但我找不到它。 ~me/work>ls -la drwxrwxr-x 3 me mygroup . drwxrwxr-x 3 me mygroup .. drwxrwxr-x 3 me mygroup folder1 drwxr-xr-x 3 person2 mygroup folder2 这是在我的主目录,这是一个自动安装的NFS。 我组中的某人在我的主目录中创build了folder2,然后离开休假。 我无法删除文件夹…我无法移动它…不能更改它的权限。 我怎样才能摆脱它? 我的系统pipe理员没有任何线索。
我正在Linux服务器上运行一个bash脚本。 当时它跑完了,我收到了这个消息 ../scripts/makepbs.sh: error reading input file: Stale NFS file handle 这是什么意思? 感谢致敬!
我想在虚拟机(VMware)上创build一个RabbitMQ服务器用于生产。 它将包含持久队列。 我想知道是否将服务器存储在通过NFS访问的NAS上是一个坏主意。 基本上我的问题是: RabbitMQ的写入会被阻塞吗? 整个队列的操作是否会暂停写入? 在坚持NFS的情况下,我应该期待多less性能下降?
我试图安装centos 5.3与kickstart,但它显示“无法下载kickstart文件。请修改kickstart参数”什么是在服务器通过NFS在客户端安装kickstart所需的环境
我正在设置ESXi 4服务器以连接到NFS数据存储。 我想将两个NIC绑定在一起,并在专用(非pipe理)networking上使用巨型帧进行NFS连接。 我用2个NIC设置了一个新的交换机,并且能够连接到NFS共享上,但是可以使用一些指导来获取巨型帧和链路聚合/绑定/分组工作。
所以,几个月前,我的老板对我说:“我们需要在相当短的时间内扩大到X客户端。” 有些场合,如果还有什么其他的工程挑战,当然更多的客户意味着更多的收入。 所以,现在我们有一个类似于下面的设置。 冗余负载平衡器,提供来自两个web服务器(通过memcache共享的会话)的数据,以及两个后端完全冗余的文件服务器。 每台文件服务器都具有整个驱动器,RAID6arrays,整个驱动器,热空间驱动器,双raid控制器,双nics,多pathyada yada yada。 我觉得这个devise是坚实的,没有单点故障的高可用性。 通过将负载分解到多个Web服务器实现高性能,从可扩展性高的angular度来看,我们应该能够保持水平添加越来越多的机器,以扩展到越来越多的客户端。 主要的瓶颈是每个文件服务器可容纳多less存储空间,以及为每个客户端分配了多less空间。 这部分会比其他系统更快地扩展。 文件服务器/客户端“池”路由被select,因为它横向扩展和更便宜,然后说:“好吧,我们需要购买甚至更大的SAN”。 所以,这一切都非常简单,越来越多的在线存储,意味着越来越多的NFS挂载。 这就是我的第二次猜测。 我想确保在把这个devise放在任何位置之前,我已经解决了所有潜在的问题。 只要每一块这个难题都得到适当的监督,我觉得它是可以控制的,但是我想首先得到其他的意见,也许是从这个路上走过的人。 我知道有几个关键问题需要关注。 文件服务器上的热点 ,或者特定的机器工作得更辛苦,那么池的其他部分就会变得更加困难。 带宽和后端交换 。 在networking服务器和NFS设备之间会有很多的交谈,高质量的交换机必须具备高交换matrix容量。 未知的问题… NFS挂载在 Web 服务器上 ,是否有任何问题,让每个Web服务器有2 … 5 … 10 … 100 NFS挂载在任何给定的时间? 有没有办法让这个更容易或更友善? 也许是某种NFS代理? (这将创造一个内部的瓶颈,这使我皱眉)。 我想到了一个分布式文件系统,并且让web服务器安装它,但是看起来非专有的,POSIX兼容的,没有停机时间的扩展,内部冗余文件系统对于生产工作来说太不成熟,昂贵,或者是真的善于从Google隐藏。 让我知道你们的想法,如果你看到任何build议和优化,将不胜感激。 ((因为它是一个开放性的问题,没有一个具体的“正确的答案”,问题是一个社区Wiki))
我们有一个特定的子平台,拥有约900个面向networking的RHEL虚拟机(如果有帮助,ESXi 4U2)。 每个虚拟机运行一个自定义应用程序,logging到每个虚拟机文件,我们不希望这些日志变得非常大,因为我们希望虚拟机很小。 我们到目前为止所做的是让每个虚拟机把它的文件放在一个共享的NFS挂载中,每个虚拟机都以VM命名。 直到昨天,我们在运行NFS服务器的NetApp框中丢失了一半的架子 – 尽pipe它全部是RAID,并且有双控制器,我们需要将整个系统切换到交换架子(一个聚合具有多个每个架子的成员)。 在这一点上,虚拟机无法写入他们的日志,我们失去了所有这些日志数据。 所以对于真正的问题,我想要做的是每个虚拟机写入一个本地文件(即在.vmdk),然后有一个进程更新中央NFS副本与本地文件的任何更新并清除本地文件,如果NFSclosures,则不会发生,并且本地文件变大,直到NFS返回,此时它将更新中央副本,然后清除本地副本。 那有意义吗? 无论哪种方式,我一直无法find这样的事情,我敢肯定,rsync不能,你有什么想法? 哦,我们有应用程序重写使用系统日志,但它需要3-6个月显然:( 谢谢。
我有一个NFS文件服务器,导出到55个工作站。 有时工作站IP地址上的DHCP租约将过期并重新发布新的IP地址。 不幸的是我认为这导致文件服务器挂起(突然需要60秒login,另外60秒加载“顶”等)。当我检查CPU负载或顶部我没有看到在服务器上的任何负载。 重新启动一切都无济于事。 当我遇到这个问题之前,我的解决scheme涉及closures所有的工作站,清除NFS服务器(我正在运行的Ubuntu服务器10.04),重新启动服务器,重新安装NFS,然后使工作站重新联机。 我不是100%确定这是问题,但我唯一的提示是“showmount”显示比有工作站更多的IP地址。 我想知道是否有某种方法可以确定是否存在挂起的NFS请求,或清除所有现有的请求,或者听取关于还有什么问题的build议。
我在A服务器上有一个RAID系统,在B服务器上有类似的configuration,都是使用Scientific Linux 5.5。 他们与infiniband连接,并从A的RAIDS挂载到ServerB的NFS。 现在,当用户通过B服务器访问A-Raid时,networking已经堆叠了2个rsyncs。 是什么原因? 我可以做一些如何更新和调整NFS吗? 亲切的regarads 阿尔曼。