我有一个奇怪的例子,其中2个glusterfs砖块中的1个将会脱机,并将所有的客户端坐骑都closures。 据我了解,这不应该发生。 它应该故障转移到仍然在线的砖块,但事实并非如此。 我怀疑这是由于configuration问题。 这里是对系统的描述: 2专用硬件上的gluster服务器(gfs0,gfs1) vms上的8个客户端服务器(client1,client2,client3,…,client8) 一半的客户端服务器使用gfs0作为主服务器,而另一半则指向gfs1。 每个客户端都使用/ etc / fstab中的以下条目进行装载: /etc/glusterfs/datavol.vol /data glusterfs defaults 0 0 这里是/etc/glusterfs/datavol.vol的内容: volume datavol-client-0 type protocol/client option transport-type tcp option remote-subvolume /data/datavol option remote-host gfs0 end-volume volume datavol-client-1 type protocol/client option transport-type tcp option remote-subvolume /data/datavol option remote-host gfs1 end-volume volume datavol-replicate-0 type cluster/replicate subvolumes datavol-client-0 datavol-client-1 end-volume […]
我使用GlusterFS设置我的kvm虚拟化环境,拓扑如下: KVM1 ———- KVM2 ————– KVM3 | ———————- | ————————- | ———————– | ————————- ————– | —————— | —————- ——- GlusterFS1 — GlusterFS2 ———- 设置说明如下: Mount GlusterFS 三个kvm机器用命令挂载glusterfs: / sbin / mount -t glusterfs -o sync,direct-io-mode = enable gfs1.dalegames.com:/gfs / gfs 为虚拟机创build文件types磁盘 qemu-img创build-f qcow2 / gfs / vs_data / linux 100G#对于Linux虚拟机 qemu-img create -f qcow2 […]
我知道很多人在ZFS上使用GlusterFS。 我想知道快照:如何确保节点间的快照同质性? 我的意思是如果你在一个节点上做一个快照,你怎么能确定它在其他节点上是一样的,以便以后可以使用zfs send / receive? 提前致谢
我有一个2 GlusterFS系统。 它最初是使用简单的主机名file01和file02创build的。 这些主机被添加到/ etc / hosts以使其工作。 现在我们要开始使用FQDN,因为我们希望使用GlusterFS本地客户端将其他服务器附加到卷上。 我们不希望为每个服务器维护主机文件。 是否有可能重新configuration当前的设置使用完整的主机名file01.example.com和file02.example.com? 谢谢!
我是GlusterFS的新手,但作为一个分布式文件系统,它确实非常适合我。 我有一个关于我的设置的问题,如果我应该使用分区,我存储的GlusterFS砖的其他任何东西。 我的设置看起来像这样。 Server 1: /external/array1/brick1/ Server 2: /external/array2/brick2/ Server 3: /external/array3/brick3/ 然后,我使用GlusterFS将每个brick1,2,3分布式文件系统合并为一个卷来安装。 我的问题是GlusterFS会发生什么,如果我添加一些数组1,2,3存储砖块。 它正在争夺分区上的空间。 比如说,我在/ external / array1 / growing_directory有一个不断增长的目录 GlusterFS如何分配文件系统呢? 它会知道如何缩小砖,由于越来越多的目录是与空间竞争? 非常感谢
我需要存储和服务约30TB的数据(现在),这个数字将会增长很快。 我也必须保持低成本,所以我会有没有RAID的服务器。 相反,数据应该复制到多个服务器上,因为它更便宜。 所以数据将在至less三台10TB的服务器之间进行拆分,并且至less应该被复制到其他3台服务器(甚至6台)。 数据将由用户上传,系统必须将其分发到3台服务器中的一台。 所有的服务器必须能够提供数据来拆分它们之间的带宽使用。 我不是一个非常有经验的系统pipe理员,我发现很难决定GlusterFS,XtreemFS和我也考虑过使用rsync。 我正在寻找最好的解决scheme,这也应该很容易使用。 这是必须的,我必须确定,如果数据在一台服务器上被损坏,系统不会将损坏的数据传播给其他服务器。 提前致谢!
我有以下问题。 我想在CentOS 7客户端上通过Infiniband挂载glusterfs共享。 glusterfs共享“/ data”被名为storage1的主机切断。 对于客户端II设置和最小的CentOS系统。 我安装rdma和opensm来运行opensm 。 两者都通过添加到引导序列 systemctl enable rdma.service systemctl enable opensm.service networking设备使用NetworkManager进行pipe理, ping storage1在ping storage1networking上正常工作。 然后我按照gluster文档中的描述添加了一个fstab条目: storage1:/data /net/data glusterfs defaults,acl,_netdev 0 0 当我现在重新启动系统时, net-data.mount服务失败。 启动完成后,我可以login并手动启动: systemctl start net-data.mount 一切正常。 在分析问题后,我发现所有使用客户端的普通以太网连接的其他networking共享(nfs,gluster)都是在启动时挂载的。 在这个journalctl我发现,对于Inifiniband来说,OpenSM在启动时太慢了。 在OpenSM完成启动之前5秒,上述共享的安装将被执行。 但是OpenSM的服务描述表明它是被network.target ,所以在networking共享被挂载之前就被盯上了。 所以我的问题是如何在引导序列的某个地方引入一个睡眠定时器,等待Inifinibandnetworking真的准备好/ OpenSM正在读取。 我不使用gluster的RDMAfunction。 OpenSM服务文件由yum / rpm安装: [Unit] Description=Starts the OpenSM InfiniBand fabric Subnet Manager Documentation=man:opensm DefaultDependencies=false Before=network.target […]
目标 我想在我的计算机上的某些虚拟机中尝试使用glusterfs geo-replication,以便以后在多个站点上使用。 组态 我在Ubuntu 32位服务器上安装glusterfs 3.6,如下所示: add-apt-repository -y ppa:gluster/glusterfs-3.6 apt-get update -qq apt-get install glusterfs-server -y 在每个virtualbox的/etc/hosts都是这样的一个条目,这样我就可以使用主机名: 192.168.1.1 ivymaster.com 192.168.1.2 ivyslave2.com 192.168.1.3 ivyslave1.com build立 首先我在master上创build和启动一个卷( force在rootfs上创build): gluster volume create master ivymaster.com:/var/glustermaster/ force gluster volume start master 工作正常。 我用ssh-copy-id设置了无密码的root用户login,并手动login一次,检查这是否设置正确,主机是否存储在known_hosts 。 我无法将同步设置到如地理复制术语 – 了解URI中所述的目录中。 创build地理复制失败与URI问题。 gluster volume geo-replication master ivyslave2.com:/var/slave2 start Staging failed on localhost. Please […]
我正在使用rsync将数据从本地LVM驱动器复制到本地安装的glusterfs安装。 我试图让他们同步,最终切换到只使用glusterfs安装。 这是我正在使用的命令: rsync -av –inplace –no-whole-file /mnt/lvm-ext4/ /mnt/gluster 我目前已经完成了初始数据推送,现在正试图赶上已经添加的新文件。 目前LVM卷拥有大约14TB的数据,大约有2500万个小文件,但是我认为rsync正在遭受这么多文件的影响。 在观察第二次运行的输出时,我发现rsync输出的大部分条目是目录条目,只有一小部分实际文件被移动。 我相信这是因为目录已经被触及,它们的atime已经被更新,因此需要rsync在远程端进行更新。 我最近了解了nodiratime mount选项,并且今天已经应用了,希望这将有助于未来的同步。 有没有办法让rsync忽略这些目录更新,只传输新/更改的文件或新的目录? 我已经看到了–ignore-times和–checksum的选项,但他们似乎是包容性的。
我在Ubuntu 14.04上安装了gluster-server和docker # install Glusterfs sudo apt-get update; sudo apt-get install -y python-software-properties; sudo add-apt-repository -y ppa:gluster/glusterfs-3.6; sudo apt-get update; sudo apt-get install -y glusterfs-server; gluster peer probe $NODE1_DNS; gluster volume create file_store_docker replica 2 transport tcp $NODE1_DNS:/brickdocker $PUBLIC_DNS:/brickdocker force; gluster volume start file_store_docker; sudo mkdir /var/lib/docker; mount -t glusterfs $PUBLIC_DNS:/file_store_docker /var/lib/docker; # install Docker […]