我很不了解GlusterFS探测器。 看,我将所有服务器添加到/ etc / hosts文件,我为每个服务器执行此操作。 比方说,我有100台服务器,后来我又增加了100台。 我无法想象更新所有200服务器的主机文件看到对方。 有什么我错过了吗? 我怎样才能轻松添加更多的服务器,而无需修改每个服务器主机文件? 我应该使用专用局域网,并使用IP地址,而不是主机名? 这会工作吗? 卡在这一点上…
我的设备机架上有一个很大的NFS共享存储系统。 我的操作是引入一些其他使用NFS系统作为主要生产存储的Linux系统。 有时,存储是共享的,我也希望能够随着项目的进行启动和导入各种虚拟机。 我看到的问题是,NFS不会试图限定其客户端系统用户的身份validation。如果UID = 1234是Alice在一个系统上,另一个使用UID = 1234作为文件系统的Bob,则他们的文件权限与远远相同NFS系统是关心的。 这个问题在NFS世界中通常如何处理?
现在我正在使用NFS(networking文件系统)将文件服务器的Web根挂载到两个Web服务器。 在我看来,NFS吃掉了很多资源。 有没有更好的方式来同步Web服务器上的文件? 我知道你可以每隔几秒钟运行rsync,但不知道这是最好的方法。
我们正在计划使用ZFS的一些function,比如: 快照。 文件系统的层次结构(每个用户都有自己的)。 自定义用户属性。 克隆。 是否有可能通过NFS共享所有这些function到Linux客户机? UPD:所以如果不可能通过NFS,我们应该使用什么类似NFS的协议?
我正在为我工作的小型企业构build一个简单的ZFS文件服务器。 该服务器是戴尔Poweredge 840,具有1GB的RAM。 操作系统(OpenSolaris 2009.06)安装在一个SATA驱动器上,另外还有三个SATA驱动器用于存储:1x1TB,1×1.5TB和1x2TB。 当我将三个驱动器添加到一个raidz zpool,吞吐量不是很好: #zpool create -m /export/pool pool raidz c7d1 c8d0 c8d1 #zfs create pool/fs #time dd if=/dev/zero of=/export/pool/fs/zerofile bs=1048576 count=1024 1024+0 records in 1024+0 records out real 0m12.539s user 0m0.002s sys 0m0.435s 那大概是81.6 MB / s。 这不是可怕的,但我尝试创build一个只包含其中一个驱动器的池: #zpool create -m /export/disk-c7d1 disk-c7d1 c7d1 #zfs create disk-c7d1/fs #time dd if=/dev/zero of=/export/disk-c7d1/fs/zerofile […]
从这里http://wikis.sun.com/display/DTrace/nfsv3+Provider 在OpenIndiana上 DTrace脚本: nfsv3io.d nfsv3ops.d 正在失败: probe description nfsv3:::op-* matches an unstable set of probes 脚本nfsv3fileio.d的作品,但具有非常大的Rbytes和Wbytes行之一的path名为 <unknown> 有没有人知道这些失败的细节和解决方法是什么?
我喜欢使用10TB RAID5设置作为文件服务器上的单个分区,以便通过networking中的NFS分发用户HOME。 由于我在这样的大盘上没有经验,所以我想知道这个优点和缺点。 有趣的是 磁盘故障会导致RAID重build多久? fsck在这么大的磁盘上还能维持多久? 除了分区的大小和小分区的大小之外,我还需要哪些性能损失? 你宁愿build议使用较小的分区,并采用NFS设置?
如何使用带DROP策略的iptables启用NFS安装/共享? NFS使用dynamic分配的端口,因此很难与防火墙配合使用。 我有一个NFS服务器和一些客户端。 我只想在NFS所需的端口上接受通信。 我已经configurationNFS服务器使用静态端口(4000-4004)。 但问题是,客户端仍然select一个随机的端口 – 因为它是UDP我只能让它工作,如果我接受来自服务器的所有UDP通信。 我发现了一些描述设置/ sysvariables的文档,这会限制客户端使用NFS的一个静态端口范围,但是,我似乎无法使其工作。 提到的/ sysvariables是: /sys/module/sunrpc/parameters/max_resvport /sys/module/sunrpc/parameters/min_resvport /sys/module/lockd/parameters/nlm_tcpport /sys/module/lockd/parameters/nlm_udpport /sys/module/nfs/parameters/callback_tcpport 我一直无法做到这一点。 也许我正在接近这个错误的方式? 对于我认为是一件简单的事情来说,这看起来不必要的复杂。 我在Debian和Ubuntu上使用NFS。
我在使用OpenIndiana 151a托pipe的NFS共享上写入性能不佳。 我有2个1 TB Mirror(希捷星座驱动器),2个SSD驱动器,1个读caching和1个写caching。 我的想法是,即使我有一个非常慢的硬盘,通过使用写入caching,我会获得类似性能的SSD。 我得到了40 MB / s的平均值。 我应该注意到,我的SSD驱动器都是SATA3 500 MB / s的能力。 我觉得被骗了 我的设置如下: ESXi 5,NFS数据存储,VMkernel上的MTU设置为9000,vSwitch 托pipe数据存储的VM1 OpenIndiana驻留在直接连接的存储上。 具有2个10GB硬盘驱动器,1个系统驱动器,第二个testing驱动器,使用HD tune pro的VM2 Windows XP驻留在NFS数据存储器上。 我正在运行一系列的IOmetertesting,当我完成后会发布结果。 我在这里看不到广告的SATA3速度,我只是更好地使用SSD作为直接附加存储? 换句话说,NFS是这里的问题吗?
我的公司开始感觉到开发者的痛苦不在同一页面上。 即一些在Windows上开发,一些在Ubuntu上开发,然后在CentOS上进行编码,然后我们开始遇到像“在我的机器上工作? 等等。 我们希望/需要开发和部署到可复制环境,以减less发布date问题。 我很好奇,如果有人有良好的做法,他们如何处理这个? 我们设想了图像,然后给每个虚拟机确保他们可以独立地testing所有的东西,而不是一个大的开发环境,在这个环境中,有3个人正在推动更改,其他人正在改写和改写代码。 似乎虚拟机的方法可能不是理想的 – 我们必须确保所有的硬件都能够处理这个问题。 我知道每个公司都不一样,但是有没有一个理想的方法来解决这个问题,任何人都可以推荐? 或最糟糕的情况 – 你如何处理? 你曾经尝试过什么,失败了什么,以及你曾经尝试过和成功过什么? 我认为我们目前的想法是弄清楚如何在我们的networking基础架构中启动VM实例,并允许开发NFS。 这将消除可能需要升级任何系统或处理不兼容问题的压力。 (也就是说,有人在Windows上开发,其他人在Linux上,甚至在Mac等等)