我在OS X的virtualbox 5.0.3中以guest虚拟机的身份运行ubuntu 14.04。在glusterfs(3.7.x)挂载的共享上执行rsync时,整个机器崩溃了。 有一个特定的/ var / log / syslog条目感兴趣: INFO: task rsync:4114 blocked for more than 120 seconds. Aug 24 20:39:15 localhost kernel: [ 8974.340183] Not tainted 3.19.0-25-generic #26~14.04.1-Ubuntu Aug 24 20:39:15 localhost kernel: [ 8974.340381] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. Aug 24 20:39:15 localhost kernel: [ 8974.340513] rsync D ffff8800d87e7e08 0 […]
为了使用gluster快照,我试图通过LVM创buildLV,因为需要精简configuration的逻辑卷才能使gluster快照起作用。 创build工作,但设置无法在重新启动。 在这个过程中的某个地方一定有一个错误。 这是我正在做的LV创build: user@node1:~$ sudo lvs [sudo] password for user: LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert root rabbit-vg -wi-ao— 8.86g swap_1 rabbit-vg -wi-ao— 5.86g 显示物理卷: user@node1:~$ sudo pvs PV VG Fmt Attr PSize PFree /dev/sda5 rabbit-vg lvm2 a– 14.76g 48.00m /dev/sde1 lvm2 a– 20.00g 20.00g 创造音量 user@node1:~$ sudo vgcreate […]
我一直在这里窥探一下,看起来glusterfs可能是我的问题的答案。 不过,我对这个还是比较陌生的,所以一个理智的检查将非常感激! 我的设置是在两个不同地点的两个Samba盒子。 两者都将作为两个位置访问共享的文件服务器。 我想到的是某种实时文件镜像到/从位置1和位置2,所以两台机器都会有一组最新的用户文件。 当然,某种写locking也会很好。 两个地点的上游都是可靠的10Mb / s。 从我收集的信息来看,在Windows环境下,DFS-R可能就是我正在寻找的东西。 在Linux世界里,什么是明智的select? 任何指针不胜感激! 麦克风
我们有一个运行GlusterFS的2节点集群。 这是一个4卷群集,副本2,每个服务器一个砖块。 死服务器:nnfs02 带有所有数据的实时服务器:nnfs03 新服务器:nnfs01 在nnfs02死后,我们添加了nnfs01,并且能够为4个卷中的2个删除砖块,在nnfs01上使用replica 2创build新砖块,并且修复卷以使两个服务器上的数据都达到100%。 卷名称:源,头像。 我们有两卷,我们不能修复,这两个是防止从头开始。 电子书/封面。 在服务重新启动之前,我分离了死亡节点(nnfs02)并尝试删除它的砖块。 没有运气。 debugging日志: https : //gist.github.com/anonymous/d8c412bda8754b4b67a1 [2015-10-21 08:07:35.029300]我[glusterfsd.c:1959:main] 0-glusterd:开始运行glusterd版本3.5.5(glusterd –debug) [2015-10-21 08:07:35.029548] D [glusterfsd.c:596:get_volfp] 0-glusterfsd:加载卷文件/etc/glusterfs/glusterd.vol [2015-10-21 08:07:35.032568]我[glusterd.c:1122:init] 0-management:使用/ var / lib / glusterd作为工作目录 [2015-10-21 08:07:35.032614] D [glusterd.c:345:glusterd_rpcsvc_options_build] 0-:listen-backlog值:128 [2015-10-21 08:07:35.032784] D [rpcsvc.c:2183:rpcsvc_init] 0-rpc-service:RPC服务被inited。 [2015-10-21 08:07:35.032802] D [rpcsvc.c:1812:rpcsvc_program_register] 0-rpc-service:注册的新程序:GF-DUMP,编号:123451501,版本:1,端口:0 [2015-10-21 08:07:35.032831] D [rpc-transport.c:262:rpc_transport_load] 0-rpc-transport:尝试加载文件/usr/lib64/glusterfs/3.5.5/rpc-transport/socket 。所以 [2015-10-21 […]
我有一个在2个节点上具有复制因子2的卷。 因此,每个砖包含自己的所有文件的副本…是否有可能避免使用glusterfs客户端,并直接写入/从卷目录读取? 它似乎正在工作,就像我像这样mount -t glusterfs IP:/mnt/my-volume somewhere : mount -t glusterfs IP:/mnt/my-volume somewhere …无论我写入主机A上的my-volume目录,我都可以在卷目录中看到主机B … 或者DFS可以通过glusterfs客户端专门访问,而其他方式可能会导致意外的行为?
我需要一个好的AWS存储云,由于EFS只是预览模式,所以我做了一些研究,GFS看起来好像是最好的select。 目前,我有两个服务器是一个集群的一部分,每个服务器都使用EBS卷来存储,而且我能够创build它们,我也可以读/写。 但是我觉得我有速度问题。 其中一个卷是在两个Web服务器之间共享的,它包含使用Laravel框架的php文件,因此需要安装大量文件。 检查出git repo和安装通过npm install基本上不会结束,但如果我去一个单独的目录(而不是在NFS),并检查出相同的回购,它工作正常,那么我只是rsync的一切(再次比我预期的要长得多,几小时)。 所有签出的目录大小只有255M ,所以我不认为这需要很长时间。 我使用dd创build了1GB文件来查看速度: # dd if=/dev/zero of=./test.txt bs=1024k count=1000 conv=sync 1000+0 records in 1000+0 records out 1048576000 bytes (1.0 GB) copied, 139.762 s, 7.5 MB/s 7.5 MB / s – 我觉得这很慢。 像Glusterfs节点增加更多的资源会改善这种情况吗? 或者添加更多的节点到集群? 还是在某处遏制? 我对AWS以及GlusterFS都有一些新的认识,所以我们将不胜感激。 UPDATE 只是一个参考,两个实例都是t2.micro ,在美国西部 -2a AZ
我们正在使用GlusterFS 3.7.11分布式/复制卷。 原来这个卷是由4个砖块在一个专用节点上形成的。 我们为我们的devise增加了4个节点,为了扩大容量,我们增加了4块砖块(每块在新添加的节点上),所以我们最终得到了8块砖块(4 x 2 – 复制品2)。 就最佳做法而言,build议通过首先修复布局然后迁移数据来重新平衡卷,于是我开始修复布局,几个小时后修复布局成功完成。 尝试迁移数据时,重新平衡任务在短暂的几秒钟后失败。 关于失败的再平衡的崩溃报告如下: pending frames: frame : type(0) op(0) frame : type(0) op(0) frame : type(0) op(0) patchset: git://git.gluster.com/glusterfs.git signal received: 4 time of crash: 2016-06-08 01:03:09 configuration details: argp 1 backtrace 1 dlfcn 1 libpthread 1 llistxattr 1 setfsid 1 spinlock 1 epoll.h 1 xattr.h 1 […]
我正在使用GlusterFS 3.7.9,目前在一台带有4块砖的服务器上。 每块砖都有4TB,卷的设置只是分配。 卷被安装在辅助服务器上,并用于备份目的。 问题是,每隔几天,辅助服务器就会看到较小的卷(12TB),并尝试访问某些文件,导致transport endpoint not connected 。 就好像它停下来看到4块砖头中的一块,而音量大的服务器看到它们都没有问题。 我有防火墙白名单中的IP, gluster volume status说一切都很好。 我应该检查什么? 我找不到任何理由。
5个刀片同时是gluster砖和KVM主机。 Gluster版本:3.8.3操作系统:Arch 一切正常,FUSE安装和磁盘被定义为types文件。 如果我将磁盘定义更改为使用libgfapi,那么如果磁盘文件是本地的,我仍然可以启动虚拟机。 如果磁盘文件位于远程的砖块上,那么我会得到以下错误。 error: internal error: process exited while connecting to monitor: [2016-10-20 00:55:05.442560] I [MSGID: 104045] [glfs-master.c:91:notify] 0-gfapi: New graph 73736b76-6830-352d-3630-36332d323031 (0) coming up [2016-10-20 00:55:05.442649] I [MSGID: 114020] [client.c:2356:notify] 0-vstore-client-1: parent translators are ready, attempting connect on transport [2016-10-20 00:55:05.445718] I [MSGID: 114020] [client.c:2356:notify] 0-vstore-client-2: parent translators are ready, attempting connect […]
我想用我的Web服务器使用GlusterFS。 在负载均衡器中联机提供新的Web服务器实例之前,我想知道是否有办法检查文件是否完成了同步? 例如,如果我在Gluster服务器上有50,000个文件,有没有一种方法可以通过编程来检查新实例上的所有50,000个文件? 另外,如果在文件位于新实例之前发生文件请求,会发生什么? 例如,如果一个web服务器请求是example.com/test.html和test.html还没有传输。 谢谢!