文档章节

如何恢复osd的auth表中的权限

泽_娟
 泽_娟
发布于 2017/06/17 10:25
字数 684
阅读 6
收藏 0

原因:当你一不小心删掉了osd的auth信息时,重启osd服务,此时ceph -s查看发现osd down

如:

[root@ceph ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1        up  1.00000          1.00000

#集群OSD全部up

[root@ceph ~]# ceph auth list
installed auth entries:

osd.0
        key: AQDZ7T5ZmLx3MBAAR8Vhqt1UvreMUwSSmdfeSw==
        caps: [mon] allow profile osd
        caps: [osd] allow *
osd.1
        key: AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==
        caps: [mon] allow profile osd
        caps: [osd] allow *
client.admin
        key: AQBA7T5ZAAAAABAAlJhtiG0oJVOeXlBc0Mzokw==
        caps: [mds] allow *
        caps: [mgr] allow *
        caps: [mon] allow *
        caps: [osd] allow *
client.bootstrap-osd
        key: AQDA7T5ZBzemGhAAwQgt7wU3kVJps7IoLAg0TA==
        caps: [mon] allow profile bootstrap-osd


#此时查看auth表中,osd.0和osd.1的auth值都正常

[root@ceph ~]# ceph auth del osd.1    #将osd.1 auth值从auth表中删除
updated
[root@ceph ~]# ceph auth list     
installed auth entries:

osd.0
        key: AQDZ7T5ZmLx3MBAAR8Vhqt1UvreMUwSSmdfeSw==
        caps: [mon] allow profile osd
        caps: [osd] allow *
client.admin
        key: AQBA7T5ZAAAAABAAlJhtiG0oJVOeXlBc0Mzokw==
        caps: [mds] allow *
        caps: [mgr] allow *
        caps: [mon] allow *
        caps: [osd] allow *
client.bootstrap-osd
        key: AQDA7T5ZBzemGhAAwQgt7wU3kVJps7IoLAg0TA==
        caps: [mon] allow profile bootstrap-osd

#此时发现osd.1的auth值已从auth表中清除

[root@ceph ~]# systemctl restart ceph-osd@1  #重启osd
[root@ceph ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1      down  1.00000          1.00000

#此时发现osd.1已经down了

 

如何恢复?

步骤如下:

  • 进入/var/lib/ceph/osd/ceph-*
[root@ceph ~]# cd /var/lib/ceph/osd/ceph-1
[root@ceph ceph-1]# ls
total 60
-rw-r--r--. 1 root root 202 Jun 17 01:34 activate.monmap
-rw-r--r--. 1 ceph ceph   3 Jun 17 01:44 active
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block -> /dev/disk/by-partuuid/87f73ff4-7add-4e83-94e9-29869c7c0123
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block.db -> /dev/disk/by-partuuid/f70d731a-666b-4828-8cb7-59c4aa498a91
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block.db_uuid
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block_uuid
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block.wal -> /dev/disk/by-partuuid/fbe8751d-c2ae-4db4-8a35-7ab699401b58
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block.wal_uuid
-rw-r--r--. 1 ceph ceph   2 Jun 17 01:34 bluefs
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 ceph_fsid
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 fsid
-rw-------. 1 ceph ceph 124 Jun 17 18:10 keyring
-rw-r--r--. 1 ceph ceph   8 Jun 17 01:34 kv_backend
-rw-r--r--. 1 ceph ceph  21 Jun 17 01:34 magic
-rw-r--r--. 1 ceph ceph   4 Jun 17 01:34 mkfs_done
-rw-r--r--. 1 ceph ceph   6 Jun 17 01:34 ready
-rw-r--r--. 1 ceph ceph   0 Jun 17 01:44 systemd
-rw-r--r--. 1 ceph ceph  10 Jun 17 01:34 type
-rw-r--r--. 1 ceph ceph   2 Jun 17 01:34 whoami

#其中keying文件记录的就是该osd部分auth值
  • 修改keying文件
[root@ceph ceph-1]# cat keyring 
[osd.1]
        key = AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==              #默认

[root@ceph ceph-1]# cat keyring 
[osd.1]
        key = AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==
        caps mon = "allow profile osd"                              #增加
        caps osd = "allow *"                                        #增加
  • 将keying文件的内容上传到mon
[root@ceph ceph-1]# ceph auth import -i keyring 
imported keyring

[root@ceph ceph-1]# systemctl restart ceph-osd@1

[root@ceph ceph-1]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1        up  1.00000          1.00000

 

© 著作权归作者所有

共有 人打赏支持
上一篇: Ceph L版本新特性
下一篇: iptables命令
泽_娟
粉丝 0
博文 25
码字总数 9857
作品 0
长沙
私信 提问
ceph的数据存储之路(7) -----PG 的状态机和peering过程

PG 的状态机和peering过程 首先来解释下什么是pg peering过程? 当最初建立PG之后,那么需要同步这个pg上所有osd中的pg状态。在这个同步状态的过程叫做peering过程。同样当启动osd的时候,这...

一只小江
2015/11/30
2.7K
4
ceph的数据存储之路(8) -----pg 的数据恢复过程

2016-10-26 更新start—————————————————————————————————————— 感谢 大水牛提出的疑问:对与本文中第二节,OSD恢复时常用的基本概念解析中对acting和...

一只小江
2016/01/04
3.5K
19
Ceph集群缩容及相关故障处理

引言 由于目前机器比较紧张,需要将我集群中的一批机器提供给其他业务使用,这时问题来了,集群机器的退出意味着数据要重新分布,数据迁移的过程中比较容易出故障。 处理过程 处理测试POOL对...

西昆仑
2016/09/23
122
0
ceph 手工部署集群

环境:ubuntu-server 16.04,两台arm服务器 分别为node1和node2,node1和node2分别安装monitor和3个osd,在node1上部署MDS,ceph 一、准备工作 systemctl stop ufw #禁用防火墙 systemctl di...

zrz11
2016/12/14
72
0
ceph rbd与openstack的结合

openstack通过libvirt调用qemu来启动具体的虚拟机,qemu通过librbd这个库与librados通信,而librados是ceph集群的统一API库,这样一来openstack就与ceph rbd联系起来了。具体调用流程如下图所...

linuxhunter
2015/12/09
563
0

没有更多内容

加载失败,请刷新页面

加载更多

云环境所面临的安全威胁

导读 为了云计算的健康发展和等级保护工作在新形势下顺利推进,就不能忽视对云计算面临的各类安全威胁的研究和分析,并制定和建立相应的等级保护政策、技术体系,应对即将到来的云浪潮。 为了...

问题终结者
17分钟前
0
0
大牛五分钟教你如何创建并运行java线程

Java线程类也是一个object类,它的实例都继承自java.lang.Thread或其子类。 可以用如下方式用java中创建一个线程: 执行该线程可以调用该线程的start()方法: 在上面的例子中,我们并没有为线程...

java知识分子
18分钟前
0
0
监控某进程工作状态的脚本

很多时候,我们需要监控某个脚本是否正在执行,如果不在执行,则需将它重启。 思路: 监测脚本或进程的执行状态,可以通过ps -ef,再加上grep命令进行定位。 如果该进程在执行,则上述命令会...

vinci321
19分钟前
0
0
彻底弃用PHP转入Kotlin阵营

痛定思痛,决定彻底弃用PHP,转入Kotlin,采用Ktor方案。Kotlin从去年年底到现在,我都一直保持关注,这一年下来,从1.0升级到1.3,增加了很多特性和支持。其实,只要是JetBrains扶持着的,想...

曾建凯
23分钟前
0
0
php动态扩展模块安装

11月21日任务 11.32 php扩展模块装安装 1.PHP扩展模块安装 示例一:编译安装一个扩展模块 /usr/local/php/bin/php -m //查看模块 下面安装一个redis的模块 cd /usr/local/src/ 进入该目录下 ...

hhpuppy
28分钟前
0
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部