我有一个奇怪的例子,其中2个glusterfs砖块中的1个将会脱机,并将所有的客户端坐骑都closures。 据我了解,这不应该发生。 它应该故障转移到仍然在线的砖块,但事实并非如此。 我怀疑这是由于configuration问题。
这里是对系统的描述:
一半的客户端服务器使用gfs0作为主服务器,而另一半则指向gfs1。 每个客户端都使用/ etc / fstab中的以下条目进行装载:
/etc/glusterfs/datavol.vol /data glusterfs defaults 0 0
这里是/etc/glusterfs/datavol.vol的内容:
volume datavol-client-0 type protocol/client option transport-type tcp option remote-subvolume /data/datavol option remote-host gfs0 end-volume volume datavol-client-1 type protocol/client option transport-type tcp option remote-subvolume /data/datavol option remote-host gfs1 end-volume volume datavol-replicate-0 type cluster/replicate subvolumes datavol-client-0 datavol-client-1 end-volume volume datavol-dht type cluster/distribute subvolumes datavol-replicate-0 end-volume volume datavol-write-behind type performance/write-behind subvolumes datavol-dht end-volume volume datavol-read-ahead type performance/read-ahead subvolumes datavol-write-behind end-volume volume datavol-io-cache type performance/io-cache subvolumes datavol-read-ahead end-volume volume datavol-quick-read type performance/quick-read subvolumes datavol-io-cache end-volume volume datavol-md-cache type performance/md-cache subvolumes datavol-quick-read end-volume volume datavol type debug/io-stats option count-fop-hits on option latency-measurement on subvolumes datavol-md-cache end-volume
上面的configuration是使这个行为正确的最新尝试。 我也在/ etc / fstab中尝试了以下条目:
gfs0:/datavol /data glusterfs defaults,backupvolfile-server=gfs1 0 0
这是一半的客户进入,而另一半有:
gfs1:/datavol /data glusterfs defaults,backupvolfile-server=gfs0 0 0
结果与上述configuration完全相同。 这两个configuration连接一切都很好,他们只是不会故障转移。
任何帮助,将不胜感激。
看起来你的configuration中有一个“cluster / distribute”块,我认为这会导致Gluster认为这个卷是有条带的。 尝试删除音量,并重新创build它没有“条纹”选项。