我创build了一个Gluster卷 sudo gluster volume create devshare transport tcp server1:/mnt/test 服务器1中的GFS1,并能够在服务器2上安装共享 sudo mount -t glusterfs server1:/devshare 但是当我尝试在server1中创build第二个卷并尝试在server2中挂载时,它不允许挂载(因此一个服务器中共有两个glustervolume)。 我得到错误消息endpoint is not connected 。 是否允许在一台服务器上有两个glustershare?
我使用Ubuntu TLS AMI创build了glusterfs实例。 我希望现有的实例(Amazon Linux AMI)连接到glusterfs服务器。 glusterfs的下载页面上没有Amazon Linux文件夹: http : //download.gluster.org/pub/gluster/glusterfs/3.3/3.3.1/ [DIR] CentOS/ 24-Oct-2012 13:27 – [DIR] Debian/ 30-Jan-2013 21:13 – [DIR] EPEL.repo/ 24-Oct-2012 13:27 – [DIR] Fedora/ 16-Oct-2012 15:25 – [DIR] Hadoop/ 25-Oct-2012 15:28 – [DIR] NetBSD/ 18-Oct-2012 11:24 – [DIR] RHEL/ 24-Oct-2012 13:27 – [DIR] UFO/ 07-Dec-2012 17:44 – [TXT] Ubuntu.README 22-Oct-2012 16:48 […]
我试图设置一个小的文件服务器使用GlusterFs在ZFS两个目前正在运行的Ubuntu 13.04。 我目前正在使用glusterfs和zfs-fuse从ubuntu库和我已经能够成功地创build一个复制gluster卷超过xfs的那些软件包。 我也一直能够创buildzfs卷,没有任何问题。 当我尝试在zfspath上创build一个gluster卷时,问题就开始了:在发出命令之后 volume create apache-config-hosting replica 2 san1.local:/zfsroot/apache-config-hosting san2.local:/zfsroot/apache-config-hosting 我得到: 2013 Sep 3 11:05:29 san1 [2013-09-03 11:05:29.962269] C [posix.c:4723:init] 0-apache-config-hosting-posix: Extended attribute not supported, exiting. 以下来自各种教程的build议我也检查了xattr支持: zfs get xattr 我得到了 zfsroot/apache-config-hosting xattr on default 这意味着它可以启动并运行。 我错过了什么? 编辑:(添加/ etc / zfs / zfsrc的内容) vdev-cache-size = 10 max-arc-size = 100 zfs-prefetch-disable fuse-attr-timeout = 3600 […]
我一直试图在Ubuntu 12.04上安装gluster(3.2.5)两台服务器的镜像一天左右,现在无法弄清楚我做错了什么。 我有两个vps之间的openvpn隧道 目前,openvpn接口没有iptables规则 我使用以下命令设置初始卷: gluster volume create vmail replica 2 transport tcp gserver1:/var/export/vmail gserver2:/var/export/vmail 我用这个命令挂载了: mount.glusterfs gserver1:/vmail /var/vmail 我得到这个错误: ~# df -h df: `/var/vmail': Transport endpoint is not connected 我在砖logging文件中看到了下面的错误,但是说实话,找不到任何看起来非常有用的东西: I [glusterfsd.c:1493:main] 0-/usr/sbin/glusterfsd: Started running /usr/sbin/glusterfsd version 3.2.5 W [socket.c:419:__socket_keepalive] 0-socket: failed to set keep idle on socket 8 W [socket.c:1846:socket_server_event_handler] 0-socket.glusterfsd: Failed to […]
我尝试使用以下命令在我的3节点群集上创build复制卷: sudo gluster volume create \ replicatedStorage \ replica 2 \ transport tcp \ gluster1.mydomain.com:/data \ gluster2.mydomain.com:/data \ gluster3.mydomain.com:/data 我得到这个错误信息: number of bricks is not a multiple of replica count 从阅读在线文档 ,听起来像一个人总是有偶数的节点进行复制,如果你想复制两次,你必须有4的倍数? 下图不可能,每种颜色代表一个文件?
我正在玩GlusterFS。 现在我很好奇如何完全重build复制的卷。 所以我从server1和server2节点创build了1个复制卷: root@server1:~# gluster volume create replicated replica 2 transport tcp server1:/mnt/repl1 server2:/mnt/repl2 force root@server1:~# gluster volume start replicated volume start: replicated: success 并将其安装到客户端节点: root@client:~# mount.glusterfs server1:/distributed /mnt/distrib/ 现在我正在尝试testing高可用性。 所以我已经closures了server1,并试图写smth到客户端的挂载点: root@client:/mnt/replica# ls -lh total 106M -rw-r–r– 1 root root 19 Jul 12 2015 1.txt -rw-r–r– 1 root root 1.3K Jul 12 2015 2.txt -rw-r–r– […]
现在我有两个glusterfs卷 Volume Name: gv0 Type: Replicate Volume ID: id-here Status: Started Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: s1.example.com:/data/brick1/gv0 Brick2: s2.example.com:/data/brick1/gv0 Options Reconfigured: performance.readdir-ahead: on / etc / fstab(server1): /dev/vdb1 /data/brick1 xfs defaults 1 2 s1.example.com:/gv0 /mnt/glusterfs glusterfs defaults,_netdev,direct-io-mode=disable 0 0 glusterfs卷本地安装,但读/写缓慢/呆滞。 我知道server1和server2之间的连接速度很慢,但理想情况下,它应该写入本地卷,然后同步正确? 在将文件存储到本地安装的glusterfs卷时,出现上传应用程序超时的问题。 我正在使用本机FUSE客户端。 所有服务器都在KVM虚拟机上。 Qcow2,没有用于glusterfs分区的cachingXFS文件系统。 基准 GlusterFS Vol: […]
我们安装了三台专用的机器,在Ubuntu 14.04上安装LAMP-Application。 Glusterfs 3.7.x将作为共享存储解决scheme。 有两台高性能的机器,还有一台合理规格的第三台服务器。 两位优秀的演员将通过NGINX举办。 要提供的文件很小(2kB – 30kb)。 目前系统在两台服务器上以replica 2模式进行计划。 gluster volume create volume1 replica 2 gs1:/data/brick gs2:/data/brick 如果我们在第三个节点上添加一个glusterfs服务器,会有性能上的提升吗? 请注意,这个问题集中在glusterfs,因此不是重复提到的post。
在失败的初始rsync数据到glusterfs之后search错误时,我在/var/log/glusterfs/data-nfs.log中find了以下条目: [MSGID:109066] [dht-rename.c:1410:dht_rename] 0-volume1-dht:renaming / source / .filename.jpg.bWVXS4 (hash = volume1-replicate-0 / cache = volume1-replicate-0)= > /dest/filename.jpg(hash = volume1-replicate-0 / cache =) 没有一个以点开头的文件名,我只是再次检查它。 这个条目是关于什么的? 有成千上万的。
我正在尝试在Gluster卷中添加两块砖块。 这两个新节点在networking中,可以通过以下方式进行validation: root /# gluster peer status 也是卷: Status of volume: mainvolume Gluster process Port Online Pid —————————————————————————— Brick Node-1:/storage 49152 Y 1162 NFS Server on localhost 2049 Y 4004 Self-heal Daemon on localhost N/AY 4011 NFS Server on 104.xxx.xxx.xxx 2049 Y 3024 Self-heal Daemon on 104.xxx.xxx.xxx N/AY 3031 Brick 45.xx.xx.xx:/storage-pool N/ANN/A NFS Server on […]