文档章节

如何恢复osd的auth表中的权限

泽_娟
 泽_娟
发布于 2017/06/17 10:25
字数 684
阅读 5
收藏 0

原因:当你一不小心删掉了osd的auth信息时,重启osd服务,此时ceph -s查看发现osd down

如:

[root@ceph ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1        up  1.00000          1.00000

#集群OSD全部up

[root@ceph ~]# ceph auth list
installed auth entries:

osd.0
        key: AQDZ7T5ZmLx3MBAAR8Vhqt1UvreMUwSSmdfeSw==
        caps: [mon] allow profile osd
        caps: [osd] allow *
osd.1
        key: AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==
        caps: [mon] allow profile osd
        caps: [osd] allow *
client.admin
        key: AQBA7T5ZAAAAABAAlJhtiG0oJVOeXlBc0Mzokw==
        caps: [mds] allow *
        caps: [mgr] allow *
        caps: [mon] allow *
        caps: [osd] allow *
client.bootstrap-osd
        key: AQDA7T5ZBzemGhAAwQgt7wU3kVJps7IoLAg0TA==
        caps: [mon] allow profile bootstrap-osd


#此时查看auth表中,osd.0和osd.1的auth值都正常

[root@ceph ~]# ceph auth del osd.1    #将osd.1 auth值从auth表中删除
updated
[root@ceph ~]# ceph auth list     
installed auth entries:

osd.0
        key: AQDZ7T5ZmLx3MBAAR8Vhqt1UvreMUwSSmdfeSw==
        caps: [mon] allow profile osd
        caps: [osd] allow *
client.admin
        key: AQBA7T5ZAAAAABAAlJhtiG0oJVOeXlBc0Mzokw==
        caps: [mds] allow *
        caps: [mgr] allow *
        caps: [mon] allow *
        caps: [osd] allow *
client.bootstrap-osd
        key: AQDA7T5ZBzemGhAAwQgt7wU3kVJps7IoLAg0TA==
        caps: [mon] allow profile bootstrap-osd

#此时发现osd.1的auth值已从auth表中清除

[root@ceph ~]# systemctl restart ceph-osd@1  #重启osd
[root@ceph ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1      down  1.00000          1.00000

#此时发现osd.1已经down了

 

如何恢复?

步骤如下:

  • 进入/var/lib/ceph/osd/ceph-*
[root@ceph ~]# cd /var/lib/ceph/osd/ceph-1
[root@ceph ceph-1]# ls
total 60
-rw-r--r--. 1 root root 202 Jun 17 01:34 activate.monmap
-rw-r--r--. 1 ceph ceph   3 Jun 17 01:44 active
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block -> /dev/disk/by-partuuid/87f73ff4-7add-4e83-94e9-29869c7c0123
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block.db -> /dev/disk/by-partuuid/f70d731a-666b-4828-8cb7-59c4aa498a91
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block.db_uuid
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block_uuid
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block.wal -> /dev/disk/by-partuuid/fbe8751d-c2ae-4db4-8a35-7ab699401b58
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block.wal_uuid
-rw-r--r--. 1 ceph ceph   2 Jun 17 01:34 bluefs
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 ceph_fsid
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 fsid
-rw-------. 1 ceph ceph 124 Jun 17 18:10 keyring
-rw-r--r--. 1 ceph ceph   8 Jun 17 01:34 kv_backend
-rw-r--r--. 1 ceph ceph  21 Jun 17 01:34 magic
-rw-r--r--. 1 ceph ceph   4 Jun 17 01:34 mkfs_done
-rw-r--r--. 1 ceph ceph   6 Jun 17 01:34 ready
-rw-r--r--. 1 ceph ceph   0 Jun 17 01:44 systemd
-rw-r--r--. 1 ceph ceph  10 Jun 17 01:34 type
-rw-r--r--. 1 ceph ceph   2 Jun 17 01:34 whoami

#其中keying文件记录的就是该osd部分auth值
  • 修改keying文件
[root@ceph ceph-1]# cat keyring 
[osd.1]
        key = AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==              #默认

[root@ceph ceph-1]# cat keyring 
[osd.1]
        key = AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==
        caps mon = "allow profile osd"                              #增加
        caps osd = "allow *"                                        #增加
  • 将keying文件的内容上传到mon
[root@ceph ceph-1]# ceph auth import -i keyring 
imported keyring

[root@ceph ceph-1]# systemctl restart ceph-osd@1

[root@ceph ceph-1]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1        up  1.00000          1.00000

 

© 著作权归作者所有

共有 人打赏支持
泽_娟
粉丝 0
博文 25
码字总数 9857
作品 0
长沙
ceph的数据存储之路(7) -----PG 的状态机和peering过程

PG 的状态机和peering过程 首先来解释下什么是pg peering过程? 当最初建立PG之后,那么需要同步这个pg上所有osd中的pg状态。在这个同步状态的过程叫做peering过程。同样当启动osd的时候,这...

一只小江
2015/11/30
2.7K
4
ceph的数据存储之路(8) -----pg 的数据恢复过程

2016-10-26 更新start—————————————————————————————————————— 感谢 大水牛提出的疑问:对与本文中第二节,OSD恢复时常用的基本概念解析中对acting和...

一只小江
2016/01/04
3.5K
19
Ceph集群缩容及相关故障处理

引言 由于目前机器比较紧张,需要将我集群中的一批机器提供给其他业务使用,这时问题来了,集群机器的退出意味着数据要重新分布,数据迁移的过程中比较容易出故障。 处理过程 处理测试POOL对...

西昆仑
2016/09/23
122
0
ceph 手工部署集群

环境:ubuntu-server 16.04,两台arm服务器 分别为node1和node2,node1和node2分别安装monitor和3个osd,在node1上部署MDS,ceph 一、准备工作 systemctl stop ufw #禁用防火墙 systemctl di...

zrz11
2016/12/14
72
0
手动编译配置ceph

一、手工编译ceph源代码。 1、下载ceph源代码。 从阿里云开源镜像网站下载当前最新版本的ceph源代码,具体下载地址如下:http://mirrors.aliyun.com/ceph/tarballs/ceph10.2.1.orig.tar.gz ...

linuxhunter
2016/05/26
2.3K
5

没有更多内容

加载失败,请刷新页面

加载更多

OSChina 周四乱弹 —— 毒蛇当辣条

Osc乱弹歌单(2018)请戳(这里) 【今日歌曲】 @ 达尔文:分享花澤香菜/前野智昭/小野大輔/井上喜久子的单曲《ミッション! 健?康?第?イチ》 《ミッション! 健?康?第?イチ》- 花澤香菜/前野智...

小小编辑
今天
5
2
java -jar运行内存设置

java -Xms64m #JVM启动时的初始堆大小 -Xmx128m #最大堆大小 -Xmn64m #年轻代的大小,其余的空间是老年代 -XX:MaxMetaspaceSize=128m # -XX:CompressedClassSpaceSize=6...

李玉长
今天
1
0
Spring | 手把手教你SSM最优雅的整合方式

HEY 本节主要内容为:基于Spring从0到1搭建一个web工程,适合初学者,Java初级开发者。欢迎与我交流。 MODULE 新建一个Maven工程。 不论你是什么工具,选这个就可以了,然后next,直至finis...

冯文议
今天
1
0
RxJS的另外四种实现方式(四)——性能最高的库(续)

接上一篇RxJS的另外四种实现方式(三)——性能最高的库 上一篇文章我展示了这个最高性能库的实现方法。下面我介绍一下这个性能提升的秘密。 首先,为了弄清楚Most库究竟为何如此快,我必须借...

一个灰
今天
1
0
麒麟AI首席科学家现世

8月31日,华为发布了新一代顶级人工智能手机芯片麒麟980,成为全球首款7nm工艺手机芯片,AI方面也实现飞跃,支持人脸识别、物体识别、物体检测、图像分割、智能翻译等。 虽然如今人人都在热议...

问题终结者
昨天
2
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部