我尝试将gluster进程绑定到内部(lan)接口失败。 根据文档,我可以在/etc/gluster/glusterd.vol中绑定到IP # cat /etc/glusterfs/glusterd.vol volume management type mgmt/glusterd option working-directory /var/lib/glusterd option transport-type socket,rdma option transport.rdma.bind-address 192.168.1.1 option transport.socket.bind-address 192.168.1.1 option transport.socket.keepalive-time 10 option transport.socket.keepalive-interval 2 option transport.socket.read-fail-log off end-volume 到现在为止还挺好。 但是,重新启动服务后,我看到: # netstat -ltpn | grep gluster tcp 0 0 0.0.0.0:49154 0.0.0.0:* LISTEN 32205/glusterfsd tcp 0 0 192.168.1.1:24007 0.0.0.0:* LISTEN 32002/glusterd glusterd是好的,但glusterfsd肯定不是。 我无法find任何可以绑定gluster […]
我试图把一个caching系统放在我们的网站前,目前一直困扰着使用哪种存储解决scheme! 所以基本上它是一个媒体stream媒体网站,这是一个非常宽带和存储时态的系统。 由于这些caching服务器位于多个位置,因此最好具有高容量存储,因此不使用大量带宽。 我有2个选项: 1-使用一致性哈希LB将请求转发到caching服务器。 2-使用类似GlusterFS或SAN的东西… 在两种情况下都需要一个高容量的networking。 但在可扩展性,延迟,networking开销和成本方面,最好的解决scheme是什么? ***我主要关心的是当单个节点不够时,nginxcaching使用什么样的存储?
目前,我们有一台托pipe所有内容的服务器:音乐,video和软件。 这个内容是由用户通过HTTP下载的。 现在自由空间即将结束,我们正在探索不同的扩展存储容量的方法。 我们想做便宜,简单和可靠(防止磁盘/服务器故障)。 当然,我们看到两种方式: 添加几个廉价的服务器与4个磁盘(RAID1?),运行一些分布式文件系统在顶部,如GlusterFS。 优点:希望我们将所有的磁盘视为单一的平面文件系统,只是将内容转储到其中并完成。 缺点:configuration和处理故障可能会很棘手。 添加几个廉价的服务器,所有运行的HTTP服务器。 每个内容(不pipe是音乐文件还是video)都放在随机select的两台服务器上。 优点:不必处理RAID,因为内容是重复的; 单服务器故障不会导致内容的任何部分; 增加了一倍的分发容量(因为任何signle文件都可以从托pipe它的两台服务器上下载)。 缺点:需要一些内容分发的脚本,添加/删除服务器。 我们错过任何其他方式吗? 上述哪个选项似乎是最好的?
在server01上,我已经安装并configuration了glusterfs-server和glusterfs-client来将目录/ var / appdata复制到server02。 看来任何东西都可以正常工作,但我不确定是否理解这个漏洞。 目录/ var / gfs_appdata是/ var / appdata中的/ var / gfs_appdata,这意味着将在/ var / appdata中生成的所有文件复制到server02,或者我的应用程序必须将所有生成的文件存储到/ var / gfs_appdata中。 目录/ var / gfs_appdata不保存任何物理数据。 server01上生成的file01在什么时候出现在server02上,复制什么时候发生? 在server01上,glusterfs通过fstab挂载: /etc/glusterfs/glusterfs.vol /var/gfs_appdata/ glusterfs defaults 0 0 在server01和server02上,glusterfs-server会在启动时自动启动,使用/etc/glusterfs/glusterfsd.vol: volume posix1 type storage/posix option directory /var/appdata end-volume volume locks1 type features/locks subvolumes posix1 end-volume volume brick1 type performance/io-threads option thread-count […]
我们正在使用glusterfs来满足我们的云存储需求。 由于分区对许多服务器是开放的,我们希望禁用文件删除,因为我们不删除或覆盖任何文件。 Glusterfs没有ACL,所以我需要在glusterfs之外实现这个解决scheme。 也许我可以挂载磁盘只读(禁用删除),但找不到任何解决scheme。 Setfacl等不能在分区上工作。 我们如何禁用文件删除 – 至less在客户机上?
群集文件系统如何避免可能的竞争条件? 我试图掌握在Master-Master体系结构中使用集群文件系统。 我特别想到GlusterFS,所以对它的实现细节是值得欢迎的,但是我希望得到一个普遍的答案。
我刚刚安装了7个KVM guest虚拟机,全部运行Ubuntu 12.04 LTS 64bit Minimal服务器,从Ubuntu官方仓库中testingglusterfs 3.2.5。 其中两个镜像对(即replica 2 ),其中五个是客户端。 我对这个文件系统还不熟悉,想获得一些“亲身体验”。 这个设置大部分是平淡无奇的,直到我把每个glusterfs客户端的/etc/fstab放入以下代码: 192.168.122.120:/testvol /var/local/testvol glusterfs defaults,_netdev 0 0 ,其中192.168.122.120是第一个“glusterfs服务器”的IP地址。 如果我在CLI上发出manaul mountall或mount.glusterfs 192.168.122.120:/testvol /var/local/testvol , mount显示该卷已成功导入。 但是,一旦客户端重新启动,它恢复后,音量不会被安装! 我search了互联网,并find了这篇文章 ,但由于我没有运行同一个节点上的客户端和服务器,恕我直言,这不是严格适用。 所以,作为一个“ sleep 3 && mount.glusterfs 192.168.122.120:/testvol /var/local/testvol ”,我把sleep 3 && mount.glusterfs 192.168.122.120:/testvol /var/local/testvol放到每个客户节点的/etc/rc.local 。 据我所知,似乎可以在每个节点上安装卷。 但这是相当丑陋的,我将不胜感激暗示如何正确解决这个glusterfs-non-boot-time-mount问题。 请注意,尽pipe所有节点的/etc/hosts已经填充了其主机名,但我使用了第一个“glusterfs服务器”的IP地址。 我认为使用IP地址更加健壮。 –Zack
如果我运行free -m , top和htop ,我得到不同的内存使用。 该系统还使用了less量交换。 从这个问题我明白为什么他们报告不同的价值(有些数据被认为是“可丢弃的”,因此被一个系统包括在内而不被另一个包括在内),而不是为什么系统决定使用交换? 它是运行最新版本(3.4.3)的GlusterFS服务器。 有谁知道为什么它使用交换,而不是清除物理内存中的“可丢弃”数据,并使用它? 有什么我可以/应该做的,或者我应该改变监控系统,不要担心less量的交换使用? 免费-m: 最佳: HTOP: 谢谢你的帮助。
我想在挂载NFS(GlusterFS)共享之后启动Apache,但它在安装步骤之前始终启动。 我在/etc/rc*.d/中设置了顺序,但是没有起作用。 我总是可以编辑脚本睡几秒钟或等待分享,但我想知道什么是最好的/正确的方法来做到这一点。 非常感谢。
我们build立了一对镜像对GlusterFS服务器。 GlusterFS-3.5.1在官方的RHEL6 RPM中没有任何特别的调整,这些都是“开箱即用”,这就是我们所拥有的。 集群有效,但性能非常糟糕。 例如,通过本地主机上的GlusterFS提取一个大的压缩包( firefox-31.0.source.tar.bz2 )需要大概44分钟。 直接提取同一个文件 – 在同一个磁盘上 – less于2个。在删除创build的树(通过gluster需要10分钟)时有类似的不一致… 当然,这是可以预料的,镜像需要发生,etcaetera,一个使用networking的文件系统会慢一些,但速度要慢30倍 ? 简单地复制大文件是很快的 – 所以它不是我们缺乏的带宽。 在开始运行的同时,我发现glusterfs (客户端)和glusterfsd (服务器)进程消耗了大量的CPU(每个都占用大约10%),但是系统仍然保持约70%的空闲状态 – 这两个gluster进程都是比提取bzip2和焦油更繁忙…他们在做什么? 我可以做一些调整来显着提高性能吗? 或者我应该尝试ceph (或gfarm ?)而不是gluster? 还是他们都有大量的小文件可怕? 谢谢!