我正在testingGlusterFS跨两个testing服务器复制数据。 我一直沿着这个优秀的步骤一步一步 ,一切都完美无瑕。 我已经成功地添加了对等体,创build了一个卷和glusterfs – 将gluster卷安装在一个空的挂载点上。 触摸或复制到该安装点的文件确实出现在对等体上。 这里没问题。 但是,如何复制现有数据而不将其复制到已安装的gluster卷? 我有这样的感觉,我错过了一些微不足道的东西,但是什么?
因此,我们正在考虑将我们的单个专用服务器(如共享虚拟主机设置)迁移到具有多个负载平衡前端服务器和独立数据库服务器(由于stream量增长和可用性问题)的体系结构。 TLDR; 当文件服务器出现故障时,我想要一些故障转移到站点文件的本地只读镜像。 场景: 大约200个虚拟主机,每个都有一些别名 每个站点基本上只有一个“包装器”,大约只有30个本地文件,大部分只是模板文件,其余的只是从一个集中的代码库 站点基本上是只读的,除了一个caching目录(可以在每个主机上分开) 没有第三方访问站点文件(即不共享) 每个网站只能获得2-10k次点击/月 目标/要求: 对任何单个服务器进行维护或由于错误而处于脱机状态时,都要具有适应性 定期进行less量文件更新的一些集中方式(手动,只是正常的站点更新),最好通过FTP 在最多5秒内将更改传播到前端服务器是可以接受的 如果一台服务器意外脱机,我会很高兴最多10分钟的文件更改丢失 在这个阶段,我们可能只会看到两台全时运行的前端服务器,另外还有一台文件服务器 可能会在AWS上实施 更多的前端服务器可能会定期添加和删除 我意识到一个典型的方法是通过版本控制进行部署,这是我们在某些情况下已经做的,但是我们的工作人员(非开发人员,主要pipe理横幅,文本更新等)非常适用于“FTP”工作stream程,我想改革,但也许还没有。 以下是我提出的解决scheme: rsync部署 文件服务器承载可通过FTP访问的站点文件的“主”副本,并通过rsync服务器公开这些副本。 我有某种“部署”接口触发每个前端服务器rsync站点和“部署”。 优点 很简单 在文件服务器上允许“暂存”版本,这可能是有用的 每个前端服务器都有自己的文件副本,如果文件服务器处于脱机状态,则不会有任何问题 缺点 有多可靠? 可能会混淆已部署的内容以及未部署的内容 NFS 具有本地caching的NFS文件服务器,定期rsync本地备份,然后可能通过将绑定的挂载点切换到本地备份进行故障转移。 优点 可能支持写作(不是必要的) NFS在某种程度上更简单 除非发生停电,否则应始终保持同步 缺点 我不确定本地NFScaching的效果如何,以及是否会自动使修改对象的caching无效。 没有本地cachingNFS很慢? 我非常确定,我需要一些心跳才能触发故障切换,并在主机恢复联机时挂载主机 Gluster等 我对这个选项并不是很熟悉,但是我相信当你拥有大量的服务器时,这是一种常见的方法。 我看了一些文档,可能是合适的,但是我没有看到很多人推荐这么小规模的文档。 优点 会允许读写 支持caching我认为,应该比非cachingNFS更快? 自动复制,恢复和故障转移 缺点 我喜欢有一个可以快照和备份的单个“主”卷的想法,我不认为有一个选项可以在gluster中说“这个节点必须有一个完整的副本”。 有了这么小的服务器池,似乎你可能很容易意外地终止了两台服务器,而这两台服务器恰好有一些数据的副本 所以,我的问题是: NFS真的是我唯一的select吗? 我应该考虑其他select吗? 这些选项中的哪一个最适合我的需求? 编辑: 感谢你们的回应,我开始意识到,考虑到我的需求规模(相对较小),我正在把事情变得太复杂。 […]
假设我有一个在多个服务器之间共享的glusterfs挂载,这个挂载被一个应用程序访问,并且日志被写入一个通常位于该挂载点的目录树中的目录。 (比如说/ foo是我们的挂载共享存储,而/ foo / bar是写入日志的目录)为了防止所有服务器试图写入同一个日志文件,我想使/ foo / bar成为一个符号链接另一个是本地目录/ var / bar。 是否可以在共享存储装载上创build本地符号链接? 这些符号链接是否可以映射到访问该存储的其他服务器上? 或者,如果没有,是否有另一种解决方法,像循环设备? 假设更改写入日志的目录是不可能的。
我如何显示GluserFS服务器的选项值。 GlusterFS文档仅涉及设置选项值 : gluster volume set ,例如gluster volume set test-volume performance.cache-size 256MB 没有提及目前正在使用的检查选项值。 也有几个人提出类似的问题没有答案 – 是否真的有可能无法在GlusterFS cli中显示选项值?
我正在使用“GlusterFS”客户端,在我的Web服务器上安装GlusterFS卷。 下面是我从命令行手动挂载的MOUNT命令: # mount -t glusterfs -o aux-gfid-mount gluster1:/gv0 /var/www/html 我不知道如何在/etc/fstab里面加上-o aux-gfid-mount选项。 所以我的fstab仍然没有这个select: gluster1:/gv0 /var/www/html/ glusterfs defaults,_netdev,fetch-attempts=5 0 0 我怎么把这个-o aux-gfid-mount选项放在fstab里面?
我很不了解GlusterFS探测器。 看,我将所有服务器添加到/ etc / hosts文件,我为每个服务器执行此操作。 比方说,我有100台服务器,后来我又增加了100台。 我无法想象更新所有200服务器的主机文件看到对方。 有什么我错过了吗? 我怎样才能轻松添加更多的服务器,而无需修改每个服务器主机文件? 我应该使用专用局域网,并使用IP地址,而不是主机名? 这会工作吗? 卡在这一点上…
我在一对服务器上configuration了gluserfs,我可以在我的客户机上安装它。 我希望在两台机器都处于脱机状态并从头开始启动时,也能够在启动时在两台glusterfs服务器上安装glusterfs文件系统。 这些服务器使用起搏器设置为一个群集。 除了共享数据库之外,起搏器还提供了一个虚拟IP地址来安装gluster文件系统。 我可以手动挂载两个服务器上的文件系统: mount -t glusterfs nodea:/gv0 /data 这是伟大的。 但是我希望这在启动时自动发生。 所以我尝试添加一个条目到fstab: nodea:/gv0 /data glusterfs _netdev 0 0 在集群启动并运行后运行“mount -a”命令时,这是有效的。 但是,启动时不起作用。 (这是客户端机器在启动时挂载glusterfs的方式,但是集群已经启动并运行了,所以它当然可以在启动时运行)。 我也尝试创build一个systemd单元文件来处理启动时glusterfs的安装。 我的单元文件位于名为“data.mount”的/ etc / systemd / system中,如下所示: # Mounting gluster fs at /data [Unit] Description = Automount gluster filesystem After=pcsd.service [Mount] What=nodea:/gv0 Where=/data Type=glusterfs [Install] WantedBy = pcsd.service 同样,当这两个服务器都运行并运行时,通过运行命令“systemctl start data.mount”,这将起作用。 如果我只重启群集中的一台机器,它也可以工作。 […]
我的托pipe服务提供商预先configuration了我用RAID-1租用的服务器。 但是,为了冗余,我计划在另一台使用GlusterFS的服务器上备份另一个数据。 我可以禁用RAID-1来获得额外的磁盘空间,因为我已经在寻求冗余了吗?
非常高兴能够知道在共享环境中使用哪个确切的iptables规则来保护GlusterFS 3.4.2(使用Debian Wheezy)。 我在ISP上运行一些专用的服务器。 有两台服务器(名为lb01和lb02 )同时充当节点和客户端。 我的实际规则如下所示: iptables -A INPUT -d localhost -p tcp –dport 111 -j ACCEPT iptables -A INPUT -d localhost -p udp –dport 111 -j ACCEPT iptables -A INPUT -d localhost -p tcp –dport 24007:24020 -j ACCEPT iptables -A INPUT -s lb01 -p tcp –dport 24007:24008 -j ACCEPT iptables -A INPUT -s […]
目前,我们已经在c1.mediumnetworking节点和Amazon RDS sql服务器上。 我们面临的问题是,有时,networking节点失败,网站停止运行。 我正在考虑通过在ELB后面运行两个或三个networking节点来缓解这种风险。 然而,这样做的代价是令人沮丧的,因为我们已经为我们目前的设置购买了保留实例。 我的问题是: ELB如何在后面的节点之间分配stream量? 通过响应时间? 按位置? 我可以让AWS自动重启死亡节点吗? 这个代码在哪里运行? 在现有的健康networking节点上? 我需要为这个configuration设置类似GlusterFS的东西吗?