Articles of glusterfs

试图添加更多的镜像服务器

我目前有2个VPS运行在同一个提供商,他们提供的Web文件。 server1.example.com server2.example.com 我用glusterFS在2个节点之间创build一个文件复制系统。 (server1是主服务器,server2是从服务器) 我打算增加更多的服务器。 但我希望他们在不同的供应商,所以我可以有更好,更多的文件可用性。 我应该如何设置它们? 他们是否应该被添加为奴隶? 或者也许这样? server1.example.com (主) server2.example.com (从属) server3.example.com (主服务器到服务器4,从服务器到服务器1) server4.example.com (从属)

在多设备.vs上的Btrfs上使用NFS。 Glusterfs分布式卷?

我考虑一个电子邮件存储。 这个存储系统运行在我自己的私有云(已经复制)上,然后我不在乎复制。 我正在考虑2个选项: 1 – 我将创build几个“磁盘”(云上的卷),并在多磁盘上创build一个Btrfs文件系统; 当文件系统满了,我会创build更多的“磁盘”,并将其添加到btrfs文件系统: btrfs device add /dev/vdX /mnt btrfs filesystem balance /mnt 这个挂载点(/ mnt)将通过NFS公开,我的Dovecot服务器将挂载这个导出,并在其上存储电子邮件。 2-我将创build一些“磁盘”(云上的卷),并创build一个GlusterFS分布式卷横跨这些磁盘; 当文件系统满了,我会创build更多的“磁盘”,并添加新的“磁盘”(S)GlusterFS分布式卷,重新平衡它。 我的鸽舍会使用glusterfs-client挂载这个卷,并在其上存储邮件。 (重复:我不需要复制,因为我的“磁盘”,在私有云上的卷,复制发) 你认为哪个选项更好: 性能? (许多小的读/写I / O) 稳定? 灵活?

GlusterFS复制DC之间没有不必要的开销?

为了testing目的,我安装了四个GlusterFS节点,并创build了一个重复计数为4的复制卷。 两个Gluster节点驻留在DC A中,而另外一个Gluster节点驻留在DC B. 现在让我们假设四个Gluster节点具有以下主机名: gluster01 – 位于DC A gluster02 – 位于DC A gluster03 – 位于DC B gluster04 – 位于DC B 在我的testing场景中,我向位于DC A的gluster01写入一个文件。现在DC B中的其他Gluster节点从gluster01复制的智能程度如何? DC B中的Gluster节点将从gluster01复制,还是只有一个来自DC B的Gluster节点复制,而DC B中的第二个节点是从DC B中的另一个节点复制的? 我问这个问题的原因是我想避免我的DC之间的非必要的复制stream量。 我在Gluster官方文档中发现了一些提示。 然而,我发现的东西并没有为我清理的东西。

gluster libgfapi HA

我正在用gluster分布式存储来探索KVM_qemu。 我的目标是build立一个完整的HAtesting集群。 即HA的虚拟机以及gluster存储。 我打算设置一个3节点gluster集群,并使用libgfapi而不是旧的FUSE方法的qemu gluster驱动程序。但是,然后我注意到在vm xml文件或qemu映像创build命令我们只能指定一个gluster服务器的IP! 那么如果那台服务器出现故障,存储将不可用? 那么在使用qemu libgfapi方法时应该怎样提供HA呢? 用keeplived分配虚拟浮动IP到gluster服务器? 请咨询..谢谢

如何将更换的硬盘添加到glusterfs卷?

我最近inheritance了一个我从零开始知道的glusterfs设置。 其中一个为硬盘提供砖块的HDD失败了,我能够replace那个硬盘,主机操作系统可以看到硬盘。 我已经成功地对它进行了格式化,并将其放置在replace的硬盘现在被安装的位置。 这是我需要帮助的地方。 我相信我需要运行某种治疗命令,但是对于GlusterFS如何做到这一点,我感到困惑不解。 这是一些背景信息。 $ mount |grep glus /dev/sdc1 on /data/glusterfs/sdc1 type xfs (rw,relatime,attr2,inode64,noquota) /dev/sdg1 on /data/glusterfs/sdg1 type xfs (rw,relatime,attr2,inode64,noquota) /dev/sdf1 on /data/glusterfs/sdf1 type xfs (rw,relatime,attr2,inode64,noquota) /dev/sdb1 on /data/glusterfs/sdb1 type xfs (rw,relatime,attr2,inode64,noquota) /dev/sdd1 on /data/glusterfs/sdd1 type xfs (rw,relatime,attr2,inode64,noquota) 127.0.0.1:/nova on /var/lib/nova/instances type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072) 127.0.0.1:/cinder on /var/lib/nova/mnt/92ef2ec54fd18595ed18d8e6027a1b3d type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072) /dev/sde1 on /data/glusterfs/sde1 […]

如何使用快照和dd自动化GlusterFS备份?

我想在glusterfs 3.7.3共享上快照自动备份。 在LVM手册上创build快照可以工作,但是如何将它们保护到不同的服务器? 我能够通过执行以下操作手动pipe理该过程: sudo umount /run/gluster/snaps/d0c254908dca451d8f566be77437c538/brick1 sudo dd if=/dev/mapper/gluster-d0c254908dca451d8f566be77437c538_0 | gzip > snap01.gz 这似乎工作,但我怎么可能知道快照名称? 我从df -h那里获得了这个信息 快照位于这里:/ var / lib / glusterd / snaps / 但是这些不仅仅是几KB,而且我希望能够完全恢复快照。 我也尝试运行文档中提到的命令: mount -t glusterfs <hostname>:/snaps/<snap-name>/<origin-volname> /<mount_point> 这没有奏效。 似乎没有任何文件夹称为/快照/因为当我按下标签我得到build议为vol1,但没有别的。 这是$ gluster snapshot list上的信息: snap4_GMT-2015.09.02-06.13.23 这是$ gluster snapshot status vol1 Snap Name : snap4_GMT-2015.09.02-06.13.23 Snap UUID : f9b4494b-dd4e-45f6-a2d0-049ccd5434f3 Brick Path […]

GlusterFS上的Openshift PersistentStorage拒绝了权限

我试图在GustFS集群上使用OpenShift和PersistentStorage。 我正在启动一个默认的模板:mysql-persistent 我已经安装了一个GlusterFS集群并创build一个卷gv_mysql_01 我在openshift中添加了glusterfs端点: oc get endpoints NAME ENDPOINTS AGE glusterfs-cluster 10.100.134.26:24007,10.100.134.28:24007 1h 我已经在openshift上创build了PersistentVolume: cat gluster-mysql_01-storage.yaml apiVersion: "v1" kind: "PersistentVolume" metadata: name: "mysql" spec: capacity: storage: "512Mi" accessModes: – "ReadWriteOnce" glusterfs: endpoints: "glusterfs-cluster" path: "gv_mysql_01" readOnly: false persistentVolumeReclaimPolicy: "Recycle" oc create -f gluster-mysql_01-storage.yaml PersistentStorage绑定到容器: oc get pv NAME LABELS CAPACITY ACCESSMODES STATUS CLAIM REASON AGE […]

存储复制/镜像的Web应用程序

我正在寻找一些在我之前做过的人的指导和build议。 我有一个Web应用程序托pipe在一个单一的VPS。 现在,我正在build立基础设施来扩大并使其高度可用。 我愿意使用两个Web服务器来托pipe我的Web应用程序文件+用户文件(如图像)。 所以当我需要在两个节点上复制文件时,我打算使用glusterfs(每个节点同时是gluster-server和gluster-client),如果只有2个节点,很多人都推荐使用它。 我已经成功设置它,它的作品像一个魅力,但我有一个特定的需求,我不知道如何实现它,是否可以通过glusterfs或任何其他软件可行。 与其他任何应用程序一样,您总是修复错误并添加新function,然后取下生产网站进行维护,以便能够应用修补程序并复制新的Web应用程序内容。 有没有这样做的机会: 因为我打算使用HaProxy作为负载均衡器,那么我可以将node1的状态更改为维护,并让node2处理所有stream量。 停止文件复制并更新/ var / www中的内容 节点1。 从HaProxy取下节点2进行维护,并将节点1取出 处理交通。 重新启动文件复制,并告诉glusterfs镜像从node1到node2的内容,而不是其他方式。 如果有一种方法可以考虑在node1处于脱机状态时创build的所有用户文件(在特定文件夹下),这将是一个很好的奖励。

可怕的表演RAID

我有一个带有两个存储服务器的小型GlusterFS集群,提供一个复制卷。 每个服务器有2个用于操作系统的SAS磁盘和22个用于实际数据的SATA磁盘作为RAID10,使用带有此configuration的MegaRAID SAS 9280-4i4e: http : //pastebin.com/2xj4401J 连接到这个集群的是一些其他的服务器,运行nginx的本地客户端服务器上存储的文件大小为3-10MB。 现在一个存储服务器有一个300Mbit / s的出站带宽和RAIDarrays的繁忙率在30-40%。 也有一些奇怪的副作用:有时候io-latency突然出现,而且突袭时间超过10秒没有可能。 使用的文件系统是xfs,并且已经调整为匹配RAID条纹大小。 有没有人有一个想法可能是这样一个糟糕的表演arrays的原因? 22 RAID10中的磁盘应该提供更多的吞吐量。

在www-data用户下安装GlusterFS共享

问题:在目录自动挂载后,Web服务器没有写权限。 问题:如何通过/ etc / fstab自动挂载GlusterFS端点,挂载后挂载点属于www-data? 现在,挂载点属于万维网数据,但挂载之后,它转向根。 # /etc/fstab foo.com:/st /st glusterfs defaults 0 0 像我这样的接口不能将用户/组定义为GlusterFS的挂载选项,至less我没有看到man glusterfs 。 谢谢!