1.确保ceph集群是连通状态

这里,可以先把机器配置为以前的x.x.x.x的网络,确保ceph集群是可以通的。这里可以执行下面的命令查看是否连通,显示HEALTH_OK则表示连通

2.获取monmap,并查看

[root@k8s-node1 ~]# mkdir ceph-tmp
[root@k8s-node1 ~]# cd ceph-tmp/
[root@k8s-node1 ceph-tmp]# ceph mon getmap -o map
[root@k8s-node1 ceph-tmp]# monmaptool --print map

3.删除旧的map配置,新增配置到map

[root@k8s-node1 ceph-tmp]#monmaptool --rm k8s-node1 map
#下面的IP表示要替换的ceph集群的IP,端口号不变
[root@k8s-node1 ceph-tmp]#monmaptool --add k8s-node1 10.0.2.21:6789 map
[root@k8s-node1 ceph-tmp]#monmaptool --print map

4.修改/etc/ceph/ceph.conf文件

#把配置文件的mon_host的ip更改为要替换的ceph集群的IP
[root@k8s-node1 ~]# vi /etc/ceph/ceph.conf
[global]
fsid = 1b47d6b8-d96a-49d0-b31d-32e6510edc25
mon_initial_members = node1
mon_host = 192.168.1.205
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx

5.停止mon进程

[root@k8s-node1 ~]#systemctl stop ceph-mon.target

6.载入新的monmap

[root@k8s-node1 ~]#cd ceph-tmp/
[root@k8s-node1 ~]#ceph-mon -i k8s-node1 --inject-monmap map

7.重启服务

[root@k8s-node1 ~]#systemctl restart ceph-mon.target
[root@k8s-node1 ~]#systemctl restart ceph-osd.target

8.将网卡配置为要更换的IP,查看集群状态是否正常

[root@k8s-node1 ~]# ceph -s
cluster:
id: 1b47d6b8-d96a-49d0-b31d-32e6510edc25
health: HEALTH_OK services:
mon: 1 daemons, quorum node1
mgr: node1(active)
osd: 1 osds: 1 up, 1 in data:
pools: 1 pools, 64 pgs
objects: 505 objects, 1.24GiB
usage: 2.22GiB used, 929GiB / 931GiB avail
pgs: 64 active+clean
04-26 16:43
查看更多