ceph集群部署报错解决

1.部署initial monitor

[root@mysql1 ceph]# ceph-deploy moncreate mysql1 mysql2 mysql3

1)报如下错:

ceph集群部署报错解决_第1张图片

2)解决方法

[root@mysql1 ceph]# ceph-deploy--overwrite-conf config push mysql1 mysql2 mysql3(mysql1、mysql2、mysql3为主机名)

再次执行[root@mysql1 ceph]# ceph-deploy mon create mysql1 mysql2 mysql3

发现成功了

2. 收集节点的keyring文件

报如下错a:

ceph集群部署报错解决_第2张图片

解决方法:

[root@mysql1 ceph]# ceph-deploy mondestroy mysql1 mysql2 mysql3

再次执行

[root@mysql1 ceph]# ceph-deploygatherkeys mysql1 mysql2 mysql3

发现已经成功了。

报如下错b:

ceph集群部署报错解决_第3张图片

解决方法:

[root@mysql1 ceph]# ceph-deploy--overwrite-conf mon create-initial

再次执行[root@mysql1 ceph]# ceph-deploy gatherkeys mysql1 mysql2 mysql3

即可解决。

3. 查看集群状态报错

[root@mysql1 ceph]# ceph –s

报错如下:

ceph集群部署报错解决_第4张图片

解决方法:布置国内pip源

[root@mysql1ceph]# mkdir /root/.pip

[root@mysql1ceph]# vim /root/.pip/pip.conf

ceph集群部署报错解决_第5张图片

[root@mysql1ceph]# vim /root/.pip/pip.conf

ceph集群部署报错解决_第6张图片

[root@mysql1ceph]# pip3 install pecan werkzeug

[root@mysql1ceph]# echo $?

[root@mysql1ceph]# reboot

重启之后,如果报错,卸载重装,再重启,之后时间同步

[root@mysql1ceph]# pip3 uninstall -y pecan werkzeug

再次查看集群状态,已经ok了

[root@mysql1~]# ceph –s

ceph集群部署报错解决_第7张图片

4.内核映射报错

[root@mysql1~]# rbd feature disable test1 object-map fast-diff deep-flatten exclusive-lock

报如下错:

rbd: failedto update image features: (22) Invalid argument

2023-02-17T17:00:40.866+08007f2fbc38bf40 -1 librbd::Operations: one or more requested features are alreadydisabled

ceph集群部署报错解决_第8张图片

解决办法:

[root@mysql1~]# rbd rm rbd/test1

rbd/test1:rbd为pool名称,test1为块设备

5.查看osd时报错

[root@mysql1~]# ceph-deploy osd list mysql1 mysql2 mysql3

报错如下:

[ceph_deploy][ERROR] ConfigError: Cannot load config: [Errno 2] No such file or directory:'ceph.conf'; has `ceph-deploy new` been run in this directory?

ceph集群部署报错解决_第9张图片

解决方法:进入到ceph目录下再执行上述命令就ok了

[root@mysql1ceph]# ceph-deploy osd list mysql1 mysql2 mysql3

6.查看集群状态报错

[root@mysql1ceph]# ceph -s

报如下错:

cluster:

id: 9ddf3f38-c658-457e-a25b-88d64d14cd1d

health: HEALTH_WARN

1 pool(s) do not have anapplication enabled

ceph集群部署报错解决_第10张图片

解决方法:

[root@mysql1ceph]# ceph health detail

#第一步查看哪里出了问题

HEALTH_WARN1 pool(s) do not have an application enabled

[WRN]POOL_APP_NOT_ENABLED: 1 pool(s) do not have an application enabled

application not enabled on pool 'rbd'

use 'ceph osd pool application enable ', where is 'cephfs', 'rbd','rgw', or freeform for custom applications.

[root@mysql1ceph]# ceph osd pool application enable rbd rbd

#第二步根据detail提示信息执行此命令,看哪一个pool出了问题,我这里提示是'rbd'出了问题

enabledapplication 'rbd' on pool 'rbd'

[root@mysql1ceph]# ceph -s #提示health: HEALTH_OK

cluster:

id: 9ddf3f38-c658-457e-a25b-88d64d14cd1d

health: HEALTH_OK

7.遇到ceph报的错实在无法解决,例如:

ceph集群部署报错解决_第11张图片

也可用以下方法解决:

如果在任何时候遇到问题并想重新开始,请执行以下操作清除Ceph软件包,并清除所有数据和配置,若非万不得已,慎用!!!切记!!!

ceph-deploy purge node1 node2 node3 #node1 node2 node3为主机名

ceph-deploy purgedata node1 node2 node3

ceph-deploy forgetkeys && rm ceph.*

你可能感兴趣的:(ceph集群,集群搭建,Linux报错解决,ceph,运维,服务器,linux,centos)