1.Ceph集群OSD扩容方案
Ceph集群OSD的扩容支持两种方式:
- 横向扩容
- 通过增加OSD节点来达到扩容的目的。
- 使用横向扩容要完成以下几个步骤:
- 在新的机器中进行初始化操作、配置Yum源、环境预先准备、配置主机名解析、时间同步等等。
- 在新的机器中安装OSD的组件包。
- 最后在执行
ceph-deploy osd create {node_name} --data {disk}
命令将新的OSD加入到集群中。
- 纵向扩容
- 通过为集群中现有的Ceph集群中,增加硬盘配置成OSD来达到扩容的目的,如果机器数量有限,建议将硬盘插在现有OSD机器中实现扩容。
- 使用纵向扩容要完成以下几个步骤:
- 添加新硬盘。
- 将硬盘的数据清空
- 使用
ceph-deploy osd create {node_name} --data {disk}
命令为添加新的OSD。
2.实现OSD的横向扩容
1.基础环境准备好
2.在集群中添加新的oSD节点
[root@ceph-node-1 ~]# ceph-deploy osd create ceph-node-1 --data /dev/sdc
[root@ceph-node-1 ~]# ceph-deploy osd create ceph-node-2 --data /dev/sdc
[root@ceph-node-1 ~]#ceph-deploy osd create ceph-node-3 --data /dev/sdc
3.查看集群的状态
[root@ceph-node-1 ~]# ceph -s
cluster:
id: a5ec192a-8d13-4624-b253-5b350a616041
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 35h)
mgr: ceph-node-1(active, since 35h), standbys: ceph-node-2, ceph-node-3
mds: cephfs-storage:1 {0=ceph-node-1=up:active} 2 up:standby
osd: 6 osds: 6 up (since 35h), 6 in (since 35h) #已经是6个OSD节点了
rgw: 1 daemon active (ceph-node-1)
task status:
data:
pools: 9 pools, 352 pgs
objects: 274 objects, 166 KiB
usage: 6.1 GiB used, 54 GiB / 60 GiB avail
pgs: 352 active+clean
4.实现OSD的纵向扩容
1.在现有OSD中添加新硬盘
[root@ceph-node-1 ~]# lsblk /dev/sdd
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdd 8:48 0 10G 0 disk
2.将硬盘的数据清空
[root@ceph-node-1 ceph-deploy]# ceph-deploy disk zap ceph-node-1 /dev/sdd
这条命令其实就是执行了一个dd命令,将硬盘的数据清空。
3.添加新的OSD
[root@ceph-node-1 ceph-deploy]# ceph-deploy osd create ceph-node-1 --data /dev/sdd
4.查看集群的状态
[root@ceph-node-1 ceph-deploy]# ceph -s
cluster:
id: a5ec192a-8d13-4624-b253-5b350a616041
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 35h)
mgr: ceph-node-1(active, since 35h), standbys: ceph-node-2, ceph-node-3
mds: cephfs-storage:1 {0=ceph-node-1=up:active} 2 up:standby
osd: 7 osds: 7 up (since 87s), 7 in (since 87s) #当前集群中有7个OSD
rgw: 1 daemon active (ceph-node-1)
task status:
data:
pools: 9 pools, 352 pgs
objects: 274 objects, 166 KiB
usage: 7.1 GiB used, 63 GiB / 70 GiB avail
pgs: 352 active+clean
5.查看OSD的列表
[root@ceph-node-1 ceph-deploy]# ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 0.06857 root default
-3 0.02939 host ceph-node-1
0 hdd 0.00980 osd.0 up 1.00000 1.00000
3 hdd 0.00980 osd.3 up 1.00000 1.00000
6 hdd 0.00980 osd.6 up 1.00000 1.00000
-5 0.01959 host ceph-node-2
1 hdd 0.00980 osd.1 up 1.00000 1.00000
4 hdd 0.00980 osd.4 up 1.00000 1.00000
-7 0.01959 host ceph-node-3
2 hdd 0.00980 osd.2 up 1.00000 1.00000
5 hdd 0.00980 osd.5 up 1.00000 1.00000
ceph-node-1节点已经有3个OSD,一个硬盘就对应一个OSD节点。