最小化安装的centos7.5
内存大于1GB
关闭selinux,防火墙端口放行(port:24007,111)(测试建议关闭firewalld)
一、环境部署
所有软件包离线安装,原因是yum安装的不能很好的控制版,用到的软件包统一放到/gfs目录,包已整理好
链接:https://pan.baidu.com/s/1Xm-NJBEGEYnwYMMIIZaWFA
提取码:o0xp
测试用的磁盘分配以及服务器架构图
basic代表服务器本来使用的磁盘,基础上再添加上图相应的磁盘,由于是测试用,为方便直观理解,磁盘大小就是后面的数字:如sdb3,该磁盘大小为3GB。
卷的分布方案
dis-volume | 分布式卷 | 12 | node1(/sde6),node2(/sde6) |
stripe-volume | 条带卷 | 10 | node1(/sdd5),node2(/sdd5) |
rep-volume | 复制卷 | 5 | node3(/sdd5),node4(/sdd5) |
dis-stripe | 分布式条带卷 | 12 | node1(/sdb3),node2(/sdb3),node3(/sdb3),node4(/sdb3) |
dis-rep | 分布式复制卷 | 8 | node1(/sdc4),node2(/sdc4),node3(sdc4),node4(sdc4) |
- 全部主机修改主机名
- 全部主机配置hosts文件,一样的
- 全部node主机创建挂载文件夹,依实际挂载点创建
- 全部主机创建/gfs文件夹,将所需软件包放入
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.64.11 node1
192.168.64.12 node2
192.168.64.13 node3
192.168.64.14 node4
192.168.64.15 client
- 完毕之后进行ping测试
- 通过传输方式将软件包上传到/gfs文件(里面有一个repo文件夹也要上传)
- 以上一切完成之后,全部node主机执行以下脚本
vim install.sh
#!/bin/bash
for i in $(fdisk -l | grep -wo "/dev/sd[b-z]" | sort)
do
dd if=/dev/zero of=$i bs=1024 count=1024
fdisk $i << EOF
n
p
w
EOF
#空行很重要不要删除
partprobe $i
#//不重启系统识别分区
mkfs.ext4 ${i}1
#//格式化分区
done
mkdir /b3 /c4 /d5 /e6
fdisk -l | grep -w "/dev/sd[b-z]" | sed -r 's/.*(\/d.{8}).*/\1/g' | sed -r 's/(.*)(.{3}):(.*)/mount \1\21 \/\2\3/' | bash
fdisk -l | grep -w "/dev/sd[b-z]" | sed -r 's/.*(\/d.{8}).*/\1/g' | sed -r 's/(.*)(.{3}):(.*)/\1\21 \/\2\3 xfs default 0 0/' >> /etc/fstab
#-w 只显示全字符合的列。
iptables -F
systemctl stop firewalld
setenforce 0
cat << EOF >> /etc/yum.repos.d/gfs.repo
[gfs]
name=gfs
baseurl=file:///gfs
gpgcheck=0
enabled=1
EOF
yum clean all && yum makecache
yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
systemctl start glusterd
systemctl enable glusterd
EOF
- 再node1上执行如下命令构建gluster集群
[root@node1 ~]# gluster peer probe node2
peer probe: success.
[root@node1 ~]# gluster peer probe node3
peer probe: success.
[root@node1 ~]# gluster peer probe node4
peer probe: success.
二、创建卷
1.创建分布式卷(扩大磁盘空间,读写速度快,没有容错能力)
2.创建条带卷(以数据块为单位存储,没有容错性)
3.创建复制卷(磁盘空间为总空间一半,具备容错性,读快,写慢)
4.创建分布式条带卷(加大容量,读取快,没有容错性)
5.创建分布式复制卷(扩展空间,总空间的一半,且具有容错能力)
三、部署Gluster客户端
1.安装客户端软件
- 将软件包放至/gfs文件夹
- 修改前面提到的hostname以及hosts
- 运行如下脚本
vim in_cl.sh
#!/bin/bash
cat << EOF >> /etc/yum.repos.d/gfs.repo
[gfs]
name=gfs
baseurl=file:///gfs
gpgcheck=0
enabled=1
EOF
yum clean all && yum makecache
yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
systemctl start glusterd
systemctl enable glusterd
- 修改fstab文件实现永久挂载
- 添加如下文件
node1:dis-volume /test/dis glusterfs defaults,_netdev 0 0
node1:stripe-volume /test/stripe glusterfs defaults,_netdev 0 0
node1:rep-volume /test/rep glusterfs defaults,_netdev 0 0
node1:dis-rep /test/dis_rep glusterfs defaults,_netdev 0 0
node1:dis-stripe /test/dis_stripe glusterfs defaults,_netdev 0 0
四、测试
- 生成测试文件(该文件虽没有数据,但是可以进行测试用途)
- 查看文件分布状态
- 分布式卷(node1和node2的/sde6目录查看,可以看到文件被分散开存放)
[root@node1 ~]# ll -h /sde6/
总用量 130M
-rw-r--r--. 2 root root 43M 4月 2 21:32 demon1.log
-rw-r--r--. 2 root root 43M 4月 2 21:32 demon3.log
-rw-r--r--. 2 root root 43M 4月 2 21:32 demon4.log
drwx------. 2 root root 16K 4月 3 2019 lost+found
[root@node2 ~]# ll -h /sde6/
总用量 87M
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon5.log
drwx------. 2 root root 16K 4月 3 03:01 lost+found
- 条带卷(node1和node2的/sdd5目录查看,清晰看到是以数据块为单位存储的)
[root@node1 ~]# ls -lh /sdd5/
总用量 108M
-rw-r--r--. 2 root root 22M 4月 2 21:31 demon1.log
-rw-r--r--. 2 root root 22M 4月 2 21:31 demon2.log
-rw-r--r--. 2 root root 22M 4月 2 21:31 demon3.log
-rw-r--r--. 2 root root 22M 4月 2 21:31 demon4.log
-rw-r--r--. 2 root root 22M 4月 2 21:31 demon5.log
[root@node2 ~]# ls -lh /sdd5/
总用量 108M
-rw-r--r--. 2 root root 22M 4月 3 05:31 demon1.log
-rw-r--r--. 2 root root 22M 4月 3 05:31 demon2.log
-rw-r--r--. 2 root root 22M 4月 3 05:31 demon3.log
-rw-r--r--. 2 root root 22M 4月 3 05:31 demon4.log
-rw-r--r--. 2 root root 22M 4月 3 05:31 demon5.log
- 复制卷(node3和node4的/sdd5目录,数据有备份)
[root@node3 ~]# ls -lh /sdd5/
总用量 216M
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon1.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 43M 4月 3 05:33 demon3.log
-rw-r--r--. 2 root root 43M 4月 3 05:33 demon4.log
-rw-r--r--. 2 root root 43M 4月 3 05:33 demon5.log
drwx------. 2 root root 16K 4月 3 03:03 lost+found
[root@node4 ~]# ls -lh /sdd5/
总用量 216M
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon1.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 43M 4月 3 05:33 demon3.log
-rw-r--r--. 2 root root 43M 4月 3 05:33 demon4.log
-rw-r--r--. 2 root root 43M 4月 3 05:33 demon5.log
drwx------. 2 root root 16K 4月 3 02:55 lost+found
- 分布式条带卷(节点1、2、3、4的/sdb3目录,我日期没有调整,海涵)
[root@node1 ~]# ls -lh /sdb3/
总用量 65M
-rw-r--r--. 2 root root 22M 4月 2 21:32 demon1.log
-rw-r--r--. 2 root root 22M 4月 2 21:32 demon3.log
-rw-r--r--. 2 root root 22M 4月 2 21:32 demon4.log
drwx------. 2 root root 16K 4月 2 18:37 lost+found
[root@node2 ~]# ls -lh /sdb3/
总用量 65M
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon1.log
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon3.log
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon4.log
drwx------. 2 root root 16K 4月 3 03:01 lost+found
[root@node3 ~]# ls -lh /sdb3/
总用量 44M
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon5.log
drwx------. 2 root root 16K 4月 3 03:03 lost+found
[root@node4 ~]# ls -lh /sdb3/
总用量 44M
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 22M 4月 3 05:32 demon5.log
drwx------. 2 root root 16K 4月 3 02:55 lost+found
- 分布式复制卷(节点1、2、3、4的/sdc4目录,可看到文件没有被分片,但是是分布开来存放的)
[root@node1 ~]# ls -lh /sdc4/
总用量 130M
-rw-r--r--. 2 root root 43M 4月 2 21:32 demon1.log
-rw-r--r--. 2 root root 43M 4月 2 21:32 demon3.log
-rw-r--r--. 2 root root 43M 4月 2 21:32 demon4.log
drwx------. 2 root root 16K 4月 3 2019 lost+found
[root@node2 ~]# ls -lh /sdc4/
总用量 130M
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon1.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon3.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon4.log
drwx------. 2 root root 16K 4月 3 03:01 lost+found
[root@node3 ~]# ls -lh /sdc4/
总用量 87M
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon5.log
drwx------. 2 root root 16K 4月 3 03:01 lost+found
[root@node4 ~]# ls -lh /sdc4/
总用量 87M
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon2.log
-rw-r--r--. 2 root root 43M 4月 3 05:32 demon5.log
drwx------. 2 root root 16K 4月 3 03:01 lost+found
破坏测试
- 直接点关闭node2节点。关机操作。
- 客户端操作
[root@client ~]# ls /test/dis/
demon1.log demon3.log demon4.log lost+found
//可以看到另外两个文件直接找不到了
[root@client ~]# ls /test/stripe/
[root@client ~]#
//条带卷因为文件都是分散开放,所以都没有了
[root@client ~]# ls /test/dis_stripe/
demon2.log demon5.log lost+found
//分布式条带卷,因为是分布式存储node2宕机导致数据不完整不会显示,1,3,4号文件丢失
[root@client ~]# ls /test/dis_rep/
demon1.log demon2.log demon3.log demon4.log demon5.log lost+found
//分布式复制卷完全不受任何影响
//总而言之,了解各卷的特点,再细心观察以下文件分布的具体位置,才能尽可能保证数据可靠性
五、维护命令
[root@node3 ~]# gluster volume list
dis-rep
dis-stripe
dis-volume
rep-volume
stripe-volume
//任何一个节点都可以查看集群列表
[root@node1 ~]# gluster volume info
//查看所有卷的信息
[root@node1 ~]# gluster volume status
//查看卷的状态
[root@node3 ~]# gluster volume stop dis-stripe
Stopping volume will make its data inaccessible. Do you want to continue? (y/n) y
volume stop: dis-stripe: success
//停止卷
[root@node3 ~]# gluster volume start dis-stripe
//启动卷
[root@node3 ~]# gluster volume delete dis-stripe
//删除卷