GFS分布式文件系统

摘要

①GFS是一个可扩展的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,并提供容错功能。它可以

给大量的用户提供总体性能较高的服务。

②GFS 也就是 google File System,Google公司为了存储海量搜索数据而设计的专用文件系统

一、GlusterFS概述

1.1、GlusterFS简介

1.1.1、开源的分布式文件系统

1.1.2、由存储服务器、客户端以及NFS/Samba存储网关组成

1.1.3、无元数据服务器

1.2、GlusterFS特点

1.2.1、扩展性和高性能

1.2.2、高可用性

1.2.3、全局统一命名空间

1.2.4、弹性卷管理

1.2.5、基于标准协议

1.3、GlusterFS术语

1.3.1、Brick

1.3.2、Volume

1.3.3、FUSE

1.3.4、VFS

1.3.5、Glusterd

1.4、模块化堆栈式架构

1.4.1、模块化、堆栈式的架构

1.4.2、通过对模块的组合,实现复杂的功能

二、GlusterFS工作原理

2.1、GlusterFS工作流程

2.2、弹性HASH算法

2.2.1、通过HASH算法得到一个32位的整数

2.2.2、划分为N个连续的子空间,每个空间对应一个Brick

2.2.3、弹性HASH算法的优点

①保证数据平均分布在每一个Brick中

②解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈

三、GlusterFS的卷类型

3.1、分布式卷

3.1.1、没有对文件进行分块处理

3.1.2、通过扩展文件属性保存HASH值

3.1.3、支持的底层文件系统有EXT3、EXT4、ZFS、XFS等

3.2、分布式卷的特点

3.2.1、文件分布在不同的服务器,不具备冗余性

3.2.2、更容易和廉价地扩展卷地大小

3.2.3、单点故障会造成数据丢失

3.2.4、依赖底层的数据保护

3.3、条带卷

3.3.1、根据偏移量将文件分层N块(N个条带节点),轮询地存储在每个Brick Server节点

3.3.2、存储大文件时,性能尤为突出

3.3.3、不具备冗余性,类型Reid0

3.4、条带卷的特点

3.4.1、数据被分割成更小块分布到块服务器群中的不同条带区

3.4.2、分布减少了负载且更小的文件加速了存取的速度

3.4.3、没有数据冗余

3.4.4、创建条带卷

创建了一个名为Stripe-volume的条带卷,文件将被分块轮询的存储在Server1:/dir1和Server2:/dir2两个Brick中

1 gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2

3.5、复制卷

3.5.1、同一文件保存一份或多份副本

3.5.2、因为要保存副本,所以磁盘利用率较低

3.5.3、若多个节点上的存储空间不一致,将按照磁盘容量最低节点的容量作为该卷的总容量

3.6、复制卷的特点

3.6.1、卷中所有的服务器均保存一个完整的副本

3.6.2、卷的副本数量可由客户创建的时候决定

3.6.3、至少有两个块服务器或更多服务器

3.6.4、具备冗余性

3.6.5、创建复制卷

创建了一个名为rep-volume的条带卷,文件将同时存储两个副本,分布在Server1:/dir1和Server2:/dir2两个Brick中

1 gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2

3.7、分布式条带卷

3.7.1、兼顾分布式卷和条带卷的功能

3.7.2、主要用于大文件访问处理

3.7.3、至少最少需要4台服务器

3.7.4、创建分布式条带卷

创建了名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)

1 gluster volume create dis-stripe stripe 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4

3.8、分布式复制卷

3.8.1、兼顾分布式卷和复制卷的功能

3.8.2、用于需要冗余的情况

3.8.3、创建分布式条带卷

创建了名为dis-rep的分布式条带卷,配置分布式的复制卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)

1 gluster volume create dis-rep replica 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4

四、GlusterFS部署

4.1、群集环境

4.2、卷类型

卷名称

卷类型

空间大小

Brick

dis-volume

分布式卷

 9.6G

node1(/sdb1)

node2(/sdb1)

stripe-volume

条带卷

 9.6G 

node3(/sdb1)

node4(/sdb1)

rep-volume

复制卷

 4.8G

node1(/sdc1)

node2(/sdc1)

dis-stripe

分布式条带卷

 20G

node1(/sdd1)node2(/sdd1)

node3(/sdd1)node4(/sdd1)

dis-rep

分布式复制卷

 9.6G 

node1(/sde1)node2(/sde1)

node3(/sde1)node4(/sde1)

4.3、部署

每个node节点上设置四个磁盘,每个磁盘5G

4.3.1、添加映射(node1、node2、node3、node4和client上设置)

1 [root@node1 yum.repos.d]# systemctl stop firewalld
2 [root@node1 yum.repos.d]# setenforce 0
1 [root@node1 ~]# vi /etc/hosts         #node1上演示
2 20.0.0.10   node1
3 20.0.0.20   node2
4 20.0.0.30   node3
5 20.0.0.40   node4

4.3.2、解压缩并安装软件(node1、node2、node3、node4和client上安装)

 1 [root@node1 ~]# unzip gfsrepo.zip         #node上演示
 2 [root@node1 ~]# cd /etc/yum.repos.d/      #设置源
 3 [root@node1 yum.repos.d]# vi GLFS.repo
 4 [GLFS]
 5 name=glfs
 6 baseurl=file:///root/gfsrepo
 7 gpgcheck=0
 8 enabled=1
 9 [root@node1 yum.repo.d]# rm -rf local.repo
10 [root@node1 ~]# yum -y install glusterfs glusterfs-server gluster-fuse glusterfs-rdma 

4.3.3、开启服务

1 [root@node1 yum.repos.d]# systemctl start glusterd.service 
2 [root@node1 yum.repos.d]# systemctl enable glusterd.service 
3 [root@node1 yum.repos.d]# systemctl status glusterd.service 

4.3.4、时间同步(node1、node2、node3、node4上安装)

1 [root@node1 ~]# ntpdate ntp1.aliyun.com           #node上演示
2 16 Nov 22:40:31 ntpdate[2414]: step time server 120.25.115.20 offset 1.141361 sec
3 [root@node1 ~]# date
4 2020年 11月 16日 星期一 22:40:35 CST

4.3.5、添加入存储信任池只要在一台主机上添加其他机器(node1上设置)

1 [root@node1 yum.repos.d]# gluster peer probe node2
2 peer probe: success. 
3 [root@node1 yum.repos.d]# gluster peer probe node3
4 peer probe: success. 
5 [root@node1 yum.repos.d]# gluster peer probe node4
6 peer probe: success. 

4.3.6、查看节点状态

 1 [root@node1 yum.repos.d]# gluster peer status
 2 Number of Peers: 3
 3 
 4 Hostname: node2
 5 Uuid: 4f51d9b8-c635-498a-82ee-b46d841e4fa1
 6 State: Peer in Cluster (Connected)
 7 
 8 Hostname: node3
 9 Uuid: b675a395-4dde-4b3d-8f8f-62c23b11abc7
10 State: Peer in Cluster (Connected)
11 
12 Hostname: node4
13 Uuid: 3425cbbc-ce66-4c43-9934-3ed07d15f956
14 State: Peer in Cluster (Connected)

 4.3.7、初始化磁盘(node1、node2、node3、node4)

 1 [root@node1 yum.repos.d]# fdisk -l
 2 [root@node1 yum.repos.d]# fdisk /dev/sdb
 3 [root@node1 yum.repos.d]# fdisk /dev/sdb
 4 [root@node1 yum.repos.d]# fdisk /dev/sdb
 5 [root@node1 yum.repos.d]# fdisk /dev/sdb
 6 [root@node1 yum.repos.d]# fdisk -l
 7 [root@node1 yum.repos.d]# mkfs.ext4 /dev/sdb1
 8 [root@node1 yum.repos.d]# mkfs.ext4 /dev/sdc1
 9 [root@node1 yum.repos.d]# mkfs.ext4 /dev/sdd1
10 [root@node1 yum.repos.d]# mkfs.ext4 /dev/sde1

4.3.8、创建卷类型(node1、node2、node3、node4)

挂载磁盘

 1 [root@node1 yum.repos.d]# mkdir -p /data/{sdb1,sdc1,sdd1,sde1}
 2 [root@node1 yum.repos.d]# mount /dev/sdb1 /data/sdb1
 3 [root@node1 yum.repos.d]# mount /dev/sdc1 /data/sdc1
 4 [root@node1 yum.repos.d]# mount /dev/sdd1 /data/sdd1
 5 [root@node1 yum.repos.d]# mount /dev/sde1 /data/sde1
 6 [root@node1 yum.repos.d]# df -Th
 7 文件系统                类型      容量  已用  可用 已用% 挂载点
 8 /dev/mapper/centos-root xfs        37G  4.5G   33G   13% /
 9 devtmpfs                devtmpfs  897M     0  897M    0% /dev
10 tmpfs                   tmpfs     912M     0  912M    0% /dev/shm
11 tmpfs                   tmpfs     912M  9.1M  903M    1% /run
12 tmpfs                   tmpfs     912M     0  912M    0% /sys/fs/cgroup
13 /dev/sr0                iso9660   4.3G  4.3G     0  100% /mnt
14 /dev/sda1               xfs      1014M  179M  836M   18% /boot
15 tmpfs                   tmpfs     183M   12K  183M    1% /run/user/42
16 tmpfs                   tmpfs     183M     0  183M    0% /run/user/0
17 /dev/sdb1               ext4      4.8G   20M  4.6G    1% /data/sdb1
18 /dev/sdc1               ext4      4.8G   20M  4.6G    1% /data/sdc1
19 /dev/sdd1               ext4      4.8G   20M  4.6G    1% /data/sdd1
20 /dev/sde1               ext4      4.8G   20M  4.6G    1% /date/sde1

①分布式卷

 1 [root@node1 yum.repos.d]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 force              #创建
 2 volume create: dis-vol: success: please start the volume to access data
 3 
 4 [root@node1 yum.repos.d]# gluster volume info dis-vol       #查看状态信息
 5  
 6 Volume Name: dis-vol
 7 Type: Distribute
 8 Volume ID: 88e88b9f-b3bc-4946-ac11-c7a90ec17acf
 9 Status: Created
10 Snapshot Count: 0
11 Number of Bricks: 2
12 Transport-type: tcp
13 Bricks:
14 Brick1: node1:/data/sdb1
15 Brick2: node2:/data/sdb1
16 Options Reconfigured:
17 transport.address-family: inet
18 nfs.disable: on
19 
20 [root@node1 yum.repos.d]# gluster volume start dis-vol         #开启
21 volume start: dis-vol: success
22 
23 [root@node1 yum.repos.d]# gluster volume status dis-vol       #查看状态
24 Status of volume: dis-vol
25 Gluster process                             TCP Port  RDMA Port  Online  Pid
26 ------------------------------------------------------------------------------
27 Brick node1:/data/sdb1                      49152     0          Y       2924 
28 Brick node2:/data/sdb1                      49152     0          Y       2915 
29  
30 Task Status of Volume dis-vol
31 ------------------------------------------------------------------------------
32 There are no active volume tasks

②条带卷

 1 [root@node1 yum.repos.d]# gluster volume create stripe-vol stripe 2 node3:/data/sdb1 node4:/data/sdb1 force
 2 volume create: stripe-vol: success: please start the volume to access data
 3 
 4 [root@node1 yum.repos.d]# gluster volume info stripe-vol
 5  
 6 Volume Name: stripe-vol
 7 Type: Stripe
 8 Volume ID: a6f10da6-c933-469a-9c84-49f55c3ede0e
 9 Status: Created
10 Snapshot Count: 0
11 Number of Bricks: 1 x 2 = 2
12 Transport-type: tcp
13 Bricks:
14 Brick1: node3:/data/sdb1
15 Brick2: node4:/data/sdb1
16 Options Reconfigured:
17 transport.address-family: inet
18 nfs.disable: on
19 
20 [root@node1 yum.repos.d]# gluster volume start stripe-vol
21 volume start: stripe-vol: success
22 
23 [root@node1 yum.repos.d]# gluster volume status stripe-vol
24 Status of volume: stripe-vol
25 Gluster process                             TCP Port  RDMA Port  Online  Pid
26 ------------------------------------------------------------------------------
27 Brick node3:/data/sdb1                      49152     0          Y       13678
28 Brick node4:/data/sdb1                      49152     0          Y       13759
29  
30 Task Status of Volume stripe-vol
31 ------------------------------------------------------------------------------
32 There are no active volume tasks

③复制卷

 1 [root@node1 yum.repos.d]# gluster volume create rep-vol replica 2 node1:/data/sdc1 node2:/data/sdc1 force
 2 volume create: rep-vol: success: please start the volume to access data
 3 
 4 [root@node1 yum.repos.d]# gluster volume info rep-vol
 5  
 6 Volume Name: rep-vol
 7 Type: Replicate
 8 Volume ID: 80ffeed8-6031-40a8-a2c3-80701d36d791
 9 Status: Created
10 Snapshot Count: 0
11 Number of Bricks: 1 x 2 = 2
12 Transport-type: tcp
13 Bricks:
14 Brick1: node1:/data/sdc1
15 Brick2: node2:/data/sdc1
16 Options Reconfigured:
17 transport.address-family: inet
18 nfs.disable: on
19 
20 [root@node1 yum.repos.d]# gluster volume start rep-vol
21 volume start: rep-vol: success
22 
23 [root@node1 yum.repos.d]# gluster volume status rep-vol
24 Status of volume: rep-vol
25 Gluster process                             TCP Port  RDMA Port  Online  Pid
26 ------------------------------------------------------------------------------
27 Brick node1:/data/sdc1                      49153     0          Y       3110 
28 Brick node2:/data/sdc1                      49153     0          Y       3065 
29 Self-heal Daemon on localhost               N/A       N/A        Y       3130 
30 Self-heal Daemon on node2                   N/A       N/A        Y       3085 
31 Self-heal Daemon on node3                   N/A       N/A        Y       13749
32 Self-heal Daemon on node4                   N/A       N/A        Y       13837
33  
34 Task Status of Volume rep-vol
35 ------------------------------------------------------------------------------
36 There are no active volume tasks

④分布式条带卷

 1 [root@node1 yum.repos.d]# gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
 2 volume create: dis-stripe: success: please start the volume to access data
 3 
 4 [root@node1 yum.repos.d]# gluster volume info dis-stripe
 5  
 6 Volume Name: dis-stripe
 7 Type: Distributed-Stripe
 8 Volume ID: 58895adb-c659-432c-a41a-5dbb741cc718
 9 Status: Created
10 Snapshot Count: 0
11 Number of Bricks: 2 x 2 = 4
12 Transport-type: tcp
13 Bricks:
14 Brick1: node1:/data/sdd1
15 Brick2: node2:/data/sdd1
16 Brick3: node3:/data/sdd1
17 Brick4: node4:/data/sdd1
18 Options Reconfigured:
19 transport.address-family: inet
20 nfs.disable: on
21 
22 [root@node1 yum.repos.d]# gluster volume start dis-stripe
23 volume start: dis-stripe: success
24 
25 [root@node1 yum.repos.d]# gluster volume status dis-stripe
26 Status of volume: dis-stripe
27 Gluster process                             TCP Port  RDMA Port  Online  Pid
28 ------------------------------------------------------------------------------
29 Brick node1:/data/sdd1                      49154     0          Y       3213 
30 Brick node2:/data/sdd1                      49154     0          Y       3144 
31 Brick node3:/data/sdd1                      49153     0          Y       13807
32 Brick node4:/data/sdd1                      49153     0          Y       13889
33  
34 Task Status of Volume dis-stripe
35 ------------------------------------------------------------------------------
36 There are no active volume tasks

⑤分布式复制卷

 1 [root@node1 yum.repos.d]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
 2 volume create: dis-rep: success: please start the volume to access data
 3 
 4 [root@node1 yum.repos.d]# gluster volume info dis-rep
 5  
 6 Volume Name: dis-rep
 7 Type: Distributed-Replicate
 8 Volume ID: 57dc83f8-a6ae-4af4-9d4c-75a0da661fff
 9 Status: Created
10 Snapshot Count: 0
11 Number of Bricks: 2 x 2 = 4
12 Transport-type: tcp
13 Bricks:
14 Brick1: node1:/data/sde1
15 Brick2: node2:/data/sde1
16 Brick3: node3:/data/sde1
17 Brick4: node4:/data/sde1
18 Options Reconfigured:
19 transport.address-family: inet
20 nfs.disable: on
21 
22 [root@node1 yum.repos.d]# gluster volume start dis-rep
23 volume start: dis-rep: success
24 
25 [root@node1 yum.repos.d]# gluster volume status dis-rep
26 Status of volume: dis-rep
27 Gluster process                             TCP Port  RDMA Port  Online  Pid
28 ------------------------------------------------------------------------------
29 Brick node1:/data/sde1                      49155     0          Y       3283 
30 Brick node2:/data/sde1                      49155     0          Y       3195 
31 Brick node3:/data/sde1                      49154     0          Y       13867
32 Brick node4:/data/sde1                      49154     0          Y       13947
33 Self-heal Daemon on localhost               N/A       N/A        Y       3303 
34 Self-heal Daemon on node3                   N/A       N/A        Y       13887
35 Self-heal Daemon on node4                   N/A       N/A        Y       13967
36 Self-heal Daemon on node2                   N/A       N/A        Y       3215 
37  
38 Task Status of Volume dis-rep
39 ------------------------------------------------------------------------------
40 There are no active volume tasks

⑥查看卷列表

1 [root@node1 yum.repos.d]# gluster volume list
2 dis-rep
3 dis-stripe
4 dis-vol
5 rep-vol
6 stripe-vol

4.3.9、挂载卷(客户机)

 1 [root@client ~]# mkdir -p /text/{dis,stripe,rep,dis-stripe,dis-rep}  #创建挂载目录
 2 [root@client ~]# mount.glusterfs node1:dis-vol /text/dis    #挂载分布卷
 3 [root@client ~]# mount.glusterfs node1:stripe-vol /text/stripe   #挂载条带卷
 4 [root@client ~]# mount.glusterfs node1:rep-vol /text/rep    #挂载复制卷
 5 [root@client ~]# mount.glusterfs node1:dis-stripe /text/dis-stripe    #挂载分布式条带卷
 6 [root@client ~]# mount.glusterfs node1:dis-rep /text/dis-rep    #挂载分布式复制卷
 7 
 8 [root@client ~]# df -Th          #查看磁盘占用情况
 9 文件系统                类型            容量  已用  可用 已用% 挂载点
10 /dev/mapper/centos-root xfs              17G  1.5G   16G    9% /
11 devtmpfs                devtmpfs        901M     0  901M    0% /dev
12 tmpfs                   tmpfs           912M     0  912M    0% /dev/shm
13 tmpfs                   tmpfs           912M  8.7M  904M    1% /run
14 tmpfs                   tmpfs           912M     0  912M    0% /sys/fs/cgroup
15 /dev/sr0                iso9660         4.3G  4.3G     0  100% /mnt
16 /dev/sda1               xfs            1014M  143M  872M   15% /boot
17 tmpfs                   tmpfs           183M     0  183M    0% /run/user/0
18 node1:dis-vol           fuse.glusterfs  9.6G   41M  9.1G    1% /text/dis
19 node1:stripe-vol        fuse.glusterfs  9.6G   41M  9.1G    1% /text/stripe
20 node1:rep-vol           fuse.glusterfs  4.8G   21M  4.6G    1% /text/rep
21 node1:dis-stripe        fuse.glusterfs   20G   81M   19G    1% /text/dis-stripe
22 node1:dis-rep           fuse.glusterfs  9.6G   41M  9.1G    1% /text/dis-rep

4.4、测试

4.4.1、创建文件

 1 创建测试文件
 2 [root@client ~]# dd if=/dev/zero of=/demo1.log bs=40M count=1
 3 记录了1+0 的读入
 4 记录了1+0 的写出
 5 41943040字节(42 MB)已复制,0.185274 秒,226 MB/ 6 [root@client ~]# dd if=/dev/zero of=/demo2.log bs=40M count=1
 7 记录了1+0 的读入
 8 记录了1+0 的写出
 9 41943040字节(42 MB)已复制,0.1539 秒,273 MB/10 [root@client ~]# dd if=/dev/zero of=/demo3.log bs=40M count=1
11 记录了1+0 的读入
12 记录了1+0 的写出
13 41943040字节(42 MB)已复制,0.141536 秒,296 MB/14 [root@client ~]# dd if=/dev/zero of=/demo4.log bs=40M count=1
15 记录了1+0 的读入
16 记录了1+0 的写出
17 41943040字节(42 MB)已复制,0.149856 秒,280 MB/18 [root@client ~]# dd if=/dev/zero of=/demo5.log bs=40M count=1
19 记录了1+0 的读入
20 记录了1+0 的写出
21 41943040字节(42 MB)已复制,0.139292 秒,301 MB/22 
23 查看文件
24 [root@client ~]# cd /
25 [root@client /]# ll
26 
27 拷贝文件到挂载目录下
28 [root@client /]# cp demo* /text/dis
29 [root@client /]# cp demo* /text/stripe
30 [root@client /]# cp demo* /text/rep
31 [root@client /]# cp demo* /text/dis-stripe
32 [root@client /]# cp demo* /text/dis-rep
33 
34 查看文件
35 [root@client /]# ll /text/dis
36 [root@client /]# ll /text/stripe
37 [root@client /]# ll /text/rep
38 [root@client /]# ll /text/dis-stripe
39 [root@client /]# ll /text/dis-rep

4.4.2、查看分布式卷分布情况(node1:/data/sdb1,node2:/data/sdb1)

 1 [root@node1 yum.repos.d]# ls -lh /data/sdb1
 2 总用量 161M
 3 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo1.log
 4 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo2.log
 5 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo3.log
 6 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo4.log
 7 drwx------. 2 root root 16K 11月 17 09:14 lost+found
 8 
 9 [root@node2 yum.repos.d]# ls -lh /data/sdb1
10 总用量 41M
11 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo5.log
12 drwx------. 2 root root 16K 11月 17 09:14 lost+found

4.4.3、查看条带卷分布情况(node3:/data/sdb1,node4:/data/sdb1)

 1 [root@node3 yum.repos.d]# ls -lh /data/sdb1
 2 总用量 101M
 3 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo1.log
 4 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo2.log
 5 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo3.log
 6 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo4.log
 7 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo5.log
 8 drwx------. 2 root root 16K 11月 17 09:14 lost+found
 9 
10 [root@node4 yum.repos.d]# ls -lh /data/sdb1
11 总用量 101M
12 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo1.log
13 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo2.log
14 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo3.log
15 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo4.log
16 -rw-r--r--. 2 root root 20M 11月 17 10:14 demo5.log
17 drwx------. 2 root root 16K 11月 17 09:14 lost+found

4.4.4、查看复制卷分布情况(node1:/data/sdc1,node2:/data/sdc1)

 1 [root@node1 yum.repos.d]# ls -lh /data/sdc1
 2 总用量 201M
 3 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo1.log
 4 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo2.log
 5 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo3.log
 6 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo4.log
 7 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo5.log
 8 drwx------. 2 root root 16K 11月 17 09:14 lost+found
 9 
10 [root@node2 yum.repos.d]# ls -lh /data/sdc1
11 总用量 201M
12 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo1.log
13 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo2.log
14 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo3.log
15 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo4.log
16 -rw-r--r--. 2 root root 40M 11月 17 10:14 demo5.log
17 drwx------. 2 root root 16K 11月 17 09:14 lost+found

4.4.5、查看分布式条带卷分布情况(node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1)

 1 [root@node1 yum.repos.d]# ls -lh /data/sdd1
 2 总用量 81M
 3 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo1.log
 4 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo2.log
 5 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo3.log
 6 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo4.log
 7 drwx------. 2 root root 16K 11月 17 09:14 lost+found
 8 
 9 [root@node2 yum.repos.d]# ls -lh /data/sdd1
10 总用量 81M
11 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo1.log
12 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo2.log
13 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo3.log
14 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo4.log
15 drwx------. 2 root root 16K 11月 17 09:14 lost+found
16 
17 [root@node3 yum.repos.d]# ls -lh /data/sdd1
18 总用量 21M
19 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo5.log
20 drwx------. 2 root root 16K 11月 17 09:14 lost+found
21 
22 [root@node4 yum.repos.d]# ls -lh /data/sdd1
23 总用量 21M
24 -rw-r--r--. 2 root root 20M 11月 17 10:15 demo5.log
25 drwx------. 2 root root 16K 11月 17 09:14 lost+found

4.4.6、查看分布式复制卷分布情况(node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1)

 1 [root@node1 yum.repos.d]# ls -lh /data/sde1
 2 总用量 161M
 3 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo1.log
 4 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo2.log
 5 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo3.log
 6 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo4.log
 7 drwx------. 2 root root 16K 11月 17 09:14 lost+found
 8 
 9 [root@node2 yum.repos.d]# ls -lh /data/sde1
10 总用量 161M
11 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo1.log
12 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo2.log
13 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo3.log
14 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo4.log
15 drwx------. 2 root root 16K 11月 17 09:14 lost+found
16 
17 [root@node3 yum.repos.d]# ls -lh /data/sde1
18 总用量 41M
19 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo5.log
20 drwx------. 2 root root 16K 11月 17 09:14 lost+found
21 
22 [root@node4 yum.repos.d]# ls -lh /data/sde1
23 总用量 41M
24 -rw-r--r--. 2 root root 40M 11月 17 10:15 demo5.log
25 drwx------. 2 root root 16K 11月 17 09:14 lost+found

4.4.7、访问控制

1 仅拒绝:
2 [root@node1 yum.repos.d]# gluster volume set dis-vol auth.reject 20.0.0.50
3 volume set: success
4 
5 仅允许
6 [root@node1 yum.repos.d]# gluster volume set dis-vol auth.allow 20.0.0.50
7 volume set: success
原文地址:https://www.cnblogs.com/xuhao0705/p/13986579.html