在我的实验室,我有一个两节点的GlusterFS设置,使用两个DL140 G3来存储虚拟机。 一台PowerEdge 1950作为VM主机。 当PowerEdge使用本地FUSE客户端安装Gluster共享时,一切都很好,当我从其中一个Gluster节点断开连接时,正在运行的虚拟机没有问题。 但是,当我使用NFS或SAMBA正在运行的虚拟机进入一个疯狂的模式,我得到大量的I / O或FS日记错误,他们需要closures。 使用SAMBA我已经尝试了提供浮动IP的CTDB HA软件,我调整了故障转移时间等等,但仍然是相同的结果。 有了NFS,我已经使用了fsid选项,并采取了其他措施使其在HA场景中工作。 我使用keepalived通过提供浮动IP帮助NFS。 不幸也没有运气。 我不知道 – 也许我在这里做错了什么。 我的SAMBA和NFS故障转移对于普通文件来说工作得很好,但是当涉及到运行虚拟机时,一些东西却无法正常工作。 我错过了一个把戏吗? 或者这些协议是不是为我想要实现的? build议和意见是非常受欢迎的 先谢谢你。
要清除我的PHP应用程序的opcache,我希望能够重新启动php7.0-fpm.service 。 我使用Ubuntu 17.04(Zesty Zapus),nginx / 1.10.3和php-fpm7.0。 在服务器上,我正在通过gluster挂载一个文件系统。 当我的应用程序运行一段时间,我尝试重新启动php-fpm与systemctl restart php7.0-fpm.service它需要很长时间来终止命令。 之后,PHP的FPM不会再次启动。 systemctl restart php7.0-fpm.service Job for php7.0-fpm.service failed because the control process exited with error code. See "systemctl status php7.0-fpm.service" and "journalctl -xe" for details. 重启之前的进程列表: root 819 0.0 1.4 366356 58764 ? Ss Jul10 0:02 php-fpm: master process (/etc/php/7.0/fpm/php-fpm.conf) www-data 23129 0.0 0.8 […]
我正在试验一对复制的glusterfs服务器,在重新启动其中一台服务器之后,有点麻烦。 我还没有configuration所有的东西自动启动,当我手动执行时,我没有注意到,当我开始gluster时,砖的文件系统还没有挂载,迫使我打破复制,删除砖,在安装fs后添加砖块。 现在一切都恢复正常了,但是还有一个问题需要解决:在一些(但不是全部)客户端上,某些目录不能被列出。 所有的内容仍然存在和可访问,只是目录列表不起作用。 例如: # ls -a # echo "test" > foo.txt # cat foo.txt test # ls -l foo.txt -rw-r–r– 1 root root 5 Jul 14 15:11 foo.txt # ls -a # rm foo.txt # ls -ld . drwxr-xr-x 2 root root 4096 Jul 14 15:11 . 它基本上似乎就像我有目录上的写入和执行权限,但没有读权限。 但是,您可以在最终的ls -ld .的输出中看到ls -ld . […]
我使用复制分布式gluster(2 * 2)与4个服务器和2个客户端。 我的操作系统是CentOs 7.2和gluster版本是3.10.3。 我正在使用10G网卡。 硬盘写入速度约为800 MB / S。 我使用了足够的CPU和内存。 但是当我写在客户端上时,写入速度低于30MB / s。 我无法find这个系统的瓶颈!
我有两个站点之间的Glusterfs(v3.11.2-1)地理复制主从设置。 这个想法是为我的存储提供一个非现场备份。 当我开始会话时,我收到以下消息: [2017-08-15 20:07:41.110635] E [fuse-bridge.c:3484:fuse_xattr_cbk] 0-glusterfs-fuse: extended attribute not supported by the backend storage 然后它开始同步数据,但每次尝试时都会停在同一点。 在主人,我收到以下错误消息: [2017-08-16 12:57:45.205311] E [repce(/mnt/storage/lapbacks):207:__call__] RepceClient: call 17769:140586894673664:1502888257.97 (entry_ops) failed on peer with OSError [2017-08-16 12:57:45.205593] E [syncdutils(/mnt/storage/lapbacks):312:log_raise_exception] <top>: FAIL: Traceback (most recent call last): File "/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/gsyncd.py", line 204, in main main_i() File "/usr/lib/x86_64-linux-gnu/glusterfs/python/syncdaemon/gsyncd.py", line 782, in main_i […]
我一直在尝试几个小时才能在pipe理和I / Opath上获得GlusterFS SSL workong无济于事,所以我希望你能帮助我。 我试过了简单的方法: openssl genrsa -out glusterfs.key 4096 openssl req -new -x509 -key glusterfs.key -subj "/CN=Anyone" -out glusterfs.pem 然后我把glusterfs.pem从所有对等体连接到glusterfs.ca并将glusterfs.ca分配给所有节点。 以下文件存在: /etc/ssl/glusterfs.key /etc/ssl/glusterfs.pem /etc/ssl/glusterfs.ca 我已经创build了该文件来在pipe理path上启用SSL并重新启动glusterd。 touch /var/lib/glusterd/secure-access systemctl restart glusterd 我的glusterd.log现在正在logging数百条(每分钟几十条)显示SSL错误: [2017-08-29 22:01:07.535725] E [socket.c:202:ssl_dump_error_stack] 0-socket.management: error:1408F10B:SSL routines:SSL3_GET_RECORD:wrong version number [2017-08-29 22:01:07.535760] E [socket.c:2519:socket_poller] 0-socket.management: server setup failed 当我尝试在I / Opath上启用SSL时,在卷日志中发生同样的错误,当我尝试更复杂的方式创build我的glusterfs。*文件时也会发生同样的错误。 例: openssl […]
我正在计划将nginxcaching移到基于networking的存储,我主要关心的是select一个具有良好性能和低延迟的基于networking的文件系统。 我看到很多人在尝试使用小文件时都抱怨NFS或者GlusterFS的设置。 当然,他们的许多问题可以通过一些调整来解决,但是我想知道如果做我做的事情甚至是一个好的举动! 所以我的问题是NFS或GlusterFS可用于nginxcaching文件?
我有一个glusterfs卷。 我可以写文件就好了,但是当我试图创build一个pipe道,它给了我权限被拒绝。 [2017-09-30 15:57:57.148455] E [MSGID: 114031] [client-rpc-fops.c:237:client3_3_mknod_cbk] 0-data-client-2: remote operation failed. Path: /gitlab/data/test/test.socket [Permission denied] [2017-09-30 15:57:57.148712] W [fuse-bridge.c:471:fuse_entry_cbk] 0-glusterfs-fuse: 354460: MKNOD() /gitlab/data/test/test.socket => -1 (Permission denied) / etc / fstab中: gluster01:/data /srv/gfs_data glusterfs rw,allow_other,default_permissions,_netdev 0 0 编辑: 所以在禁用并查看两个砖块的selinux日志之后,它正在阻止它。 应该在什么情况下添加? SELinux日志 type=AVC msg=audit(1506943186.948:4039): avc: denied { create } for pid=11312 comm="glusteriotwr1" name="test" scontext=system_u:system_r:glusterd_t:s0 tcontext=system_u:object_r:svirt_sandbox_file_t:s0 […]
最近,我们用我们的oVirt 4.1三节点集群与HE和GlusterFS(RF = 3)存储域发生了一场灾难。 我们已经将一个节点移动到维护,并且在实际维护期间,一个具有SPMangular色的工作节点出现故障。 这是硬件故障,所以我们不得不从集群中删除它。 经过现在的修改之后,我们几乎有两个节点的工作簇,GlusterFS RF = 2。 但问题是oVirt无法find与“HSMGetAllTasksStatusesVDS失败:不是SPM”错误的SPM和Spam Web界面日志。 经过一段时间的操作,我们丢失了dom_md的内容。 看起来这两个问题是相关的,第二个是第一个的结果。 请build议如何恢复SPM和dom_md。 有没有办法重新创build两个? TIA 问候,亚历克斯
GlusterFS仍然提供开源软件。 但是,由于Redhat已经将GlusterFS重新命名为Redhat虚拟存储设备,所以我对生产环境的好处感到困惑。 Redhat VSA和GlusterFS有技术上的区别吗? 我知道Redhat VSA会支持,但是我所说的是技术特性差异。