我有一个glusterfs砖安装在下面的目录: /home/data/bricks/brick1/brick1 现在我想将其更改为: /bricks/project/brick1 根据手册,必须迁移数据: sudo gluster volume replace-brick vol2 /home/data/bricks/brick1/brick1 /bricks/project/brick1 这不幸的是不工作。 我得到以下错误: Usage: volume replace-brick <VOLNAME> <SOURCE-BRICK> <NEW-BRICK> {commit force} 语法对我来说看起来不错,其他人看到问题在哪里? 感谢您的任何帮助。
我有一个双节点的GlusterFS安装程序。 每个有2个重复。 其中一个系统以某种方式超载。 然后事情开始出问题了。 目前我有所有的应用程序closures。 我不知道如何把它带回来。 我可以开始音量,但一些文件似乎已损坏。 我跑gluster volume heal kvm1 ,现在gluster volume heal kvm1 info显示了一个长长的清单“gfid”,如 <gfid:57d68ac5-5ae7-4d14-a65e-9b6bbe0f83a3> <gfid:c725a364-93c5-4d98-9887-bc970412f124> <gfid:8178c200-4c9a-407b-8954-08042e45bfce> <gfid:b28866fa-6d29-4d2d-9f71-571a7f0403bd> 我不确定它实际上是在“医治”任何东西。 参赛人数一直稳定。 我怎样才能确认愈合过程实际上工作? # gluster volume heal kvm1 info|egrep 'Brick|entries' Brick f24p:/data/glusterfs/kvm1/brick1/brick Number of entries: 5 Brick f23p:/data/glusterfs/kvm1/brick1/brick Number of entries: 216 Brick f23p:/bricks/brick1/kvm1 Number of entries: 6 Brick f24p:/bricks/brick2/kvm1 Number of entries: 1 # […]
说我有一堆服务器访问gluster安装通过HTTP服务文件。 文件内部来源,并从一个内部服务器复制到一个下载服务器上的gluster装载,这样的变化传播到整个 – 我应该有文件直接复制到服务器托pipegluster装载,或者我应该继续将它们复制到访问gluster安装的服务器上?
我在复制中的三台服务器上有一个GlusterFS集群,我想在里面运行Docker,所以它在所有副本上都可用。 我想达到这个目的的原因是因为我不想为每个网站设置每个服务器。 是否有可能从所有的服务器提供一个Docker容器?
我有一个问题,使用GlusterFS来replace现有的,非HA,NFS设置以在机器之间共享数据。 先来看一下configuration: 概念certificateglusterfs是一个2台机器和一个复制卷的设置。 然后有2个客户端导入这个卷。 一个客户端是用于客户连接并发送文件的SFTP服务器,另一个客户端是运行我们的应用程序的服务器。 我遇到的问题是关于用户和权限。 连接到SFTP服务器的用户将被关在一个特定的目录(chroot)中,SFTP需要严格的权限(root用户和root拥有的目录是唯一允许写入权限的用户)。同时,应用程序,作为特定用户运行,在另一台服务器上需要在目录树上完全访问。 我正在更换的设置使用NFS,导出在两个客户端上以不同的所有权/许可(使用uid和gid选项挂载)进行挂载; 这样,两台服务器上的用户就拥有了他们所需的权限。 另一方面,GlusterFS AFAIK不允许在每台机器上安装特定的所有权。 我知道GlusterFS是符合POSIX的,我可以使用标准的权限系统和ACL 我想过和/或testing过几个选项,但没有一个能令我满意。 使用ACL:当向应用服务器的用户添加读写权限时,会认为该权限是“组”权限,SFTP会投诉。 在机器上创build一个通用用户:不是很灵活,依靠系统pipe理员来维护普通用户,而在转移到生产环境时,情况会变得复杂,因为更多的系统必须进行交互。 安装在不同的地方并绑定到正确的目录。 但后来我发现我不能改变所有权… 使用NFS / Ganesha或SAMBA。 这太过分了,我可以安装glusterfs客户端,我不想使用必须configuration和修补的其他图层。 卷本身及其所有内容由用户root和组root拥有。 你们有没有更好的主意? 或者知道GlusterFS的一个function,允许我更简单的设置? 提前致谢。
更新 :看来Ubuntu 14.04捆绑版本的Gluster对于我想要做的事情来说太旧了(正如@ SmallLoanOf1M所暗示的那样)。 这里有一个Ubuntu的gluster社区PPA,它有更好的SSL新版本。 我遵循Gluster社区网站上的启用glusterfs SSL模式 ,在我的glusterfs服务器上启用SSL(在Ubuntu 14.04上使用v3.4.2)。 我将SSL证书分发给服务器和两个客户端。 当我查看我得到的服务器上的音量信息 # gluster vol info Volume Name: pm1-dump Type: Distribute Volume ID: eb403a2b-e28b-440c-846a-fa9f82e748bd Status: Started Number of Bricks: 1 Transport-type: tcp Bricks: Brick1: 172.22.2.1:/mnt/pm2_pm1/pm1-dump Options Reconfigured: performance.write-behind: on diagnostics.brick-log-level: WARNING diagnostics.client-log-level: WARNING nfs.enable-ino32: on nfs.addr-namelookup: off nfs.disable: on performance.cache-refresh-timeout: 4 performance.cache-size: 32MB performance.write-behind-window-size: 16MB performance.io-thread-count: […]
我们在2个节点上运行GlusterFS复制服务器,我们有2个客户端。 自我修复守护程序已启用。 每个客户端都使用Gluster客户端连接到不同的服务器。 Gluster卷上有很多非常小的文件。 我们在Debian Jessie系统上使用官方的GlusterFS APT Repositories中的GlusterFS 3.9.1。 我们面临的问题是其中一台服务器的负载平均为0.1-0.5,而另一台服务器的负载为200.高负载的服务器也有大量的数据不断stream向两个客户端节点。 即使客户端没有读取数据,这个数据stream也会继续。 以下值由nload和iftop测量: 服务器:传出35-40 MB / s 两个客户端:传入17-20 MB /秒 我们在Gluster客户端上的performance非常差。 ls可能需要10秒才能完成,而我们的应用程序工作非常缓慢。 服务器和客户端通过内部数据中心networking连接,可以处理更多带宽,因此这不是一个限制因素。 我的两个主要问题是: 1: GlusterFS服务器负载正常行为的这些差异是什么造成的? 2:为什么有这么高的常量数据stream来客户端组成一个服务器。 我似乎无法在Gluster文档或互联网上find关于此的任何信息。
几个月前,我使用XFS格式的zram设备与GlusterFS串起来,在几台裸机服务器(运行RHEL 7.2)上创build分布式/networking/复制的内存中文件系统。 我使用这个FS作为一个高性能的方式来存储,服务和复制我的多服务器应用程序服务器的图像和video。 而我无法find任何其他内存中的FS解决scheme,所以我一起砍了这个。 它已经运行了4个月,但是昨天晚上其中一台服务器因为XFS损坏而崩溃 – 我最终不得不做了一个OS Reload。 我不知道这个设置是怪罪的,但是可能性是。 这导致我… 1)为了使这个设置更加稳定,我应该遵循哪些最佳实践? 2)是否有我可以(甚至应该)设置一个日志logging系统,以便我可以监视每个zram + xfs节点的健康状态? 而且知道如果再发生碰撞事故又出了什么问题。 一些性能testing: / dev / loop0 = https://erlhelinfotech.wordpress.com/2013/02/20/ramdisk-service-for-systemd/ / dev / zram0 =我的zram设置 / dev / sdb2 =标准的7200rpm磁盘 用hdparm -Tt进行性能testing
我需要一个具有以下要求的存储系统: 每天自动扩展的Linux EC2应用程序服务器(1-20)的dynamic池 低延迟读取 可能是asynchronous写入(<5分钟) 大多数POSIXfunction,除了locking 每个应用程序服务器都可以自主工作,因此需要本地所有数据(复制模式) 因为我想复制许多机器(N-Master设置),所以我认为需要asynchronous写入,这是可以接受的,因为应用程序可以在写入传播中延迟5分钟。 但是我不确定在GlusterFS中如何做到这一点,以及它是否可行。 你将如何设置? 鉴于这种设置,让我偷偷在两个问题: GlusterFS如何pipe理冲突的asynchronous写入? 如果我不太关心数据丢失,那么解决这些冲突的最好方法是什么? 另外,大多数GlusterFS文档都是关于手动添加/删除砖块的。 有没有人成功地运行一个设置,每天多次自动添加/删除砖块? 对于这些特殊要求,GlusterFS可能有更好的select吗? 背景:我现在使用NFS托pipe2000个Magento商店。 它吸(SPOF,可靠性),所以我正在寻找替代品。 Magento软件可以在只读存储上运行,但98%的这些商店使用外部模块,这些模块在某种程度上取决于共享的可写文件系统。 现在我可以告诉商店的开发者,他们应该把这些模块丢掉,但是恐怕我不会留下很多客户;) 谢谢!
我需要在3个不同的位置存储设备。 每个设备将有4TB的存储空间。 至less2TB应该是一个像Dropbox一样工作的“共享文件夹”:当用户在一个位置更改文件时,该文件应该通过互联网在其他两个设备上立即更新(与networking允许的速度一样快)。 每个存储设备将连接到本地networking,使用MAC / Linux的用户将把文件下载到“外部HD”。 我曾经想过一个内置备份到不同位置(例如Synology产品)的另一台NAS的NAS,但我不知道这是否可以使用更多的设备。 还考虑过文件存储,像glusterfs复制整个磁盘,但感觉这样的工作太过分了。 你能推荐任何软件/设置? 谢谢