文档章节

如何恢复osd的auth表中的权限

泽_娟
 泽_娟
发布于 2017/06/17 10:25
字数 684
阅读 5
收藏 0
点赞 0
评论 0

原因:当你一不小心删掉了osd的auth信息时,重启osd服务,此时ceph -s查看发现osd down

如:

[root@ceph ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1        up  1.00000          1.00000

#集群OSD全部up

[root@ceph ~]# ceph auth list
installed auth entries:

osd.0
        key: AQDZ7T5ZmLx3MBAAR8Vhqt1UvreMUwSSmdfeSw==
        caps: [mon] allow profile osd
        caps: [osd] allow *
osd.1
        key: AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==
        caps: [mon] allow profile osd
        caps: [osd] allow *
client.admin
        key: AQBA7T5ZAAAAABAAlJhtiG0oJVOeXlBc0Mzokw==
        caps: [mds] allow *
        caps: [mgr] allow *
        caps: [mon] allow *
        caps: [osd] allow *
client.bootstrap-osd
        key: AQDA7T5ZBzemGhAAwQgt7wU3kVJps7IoLAg0TA==
        caps: [mon] allow profile bootstrap-osd


#此时查看auth表中,osd.0和osd.1的auth值都正常

[root@ceph ~]# ceph auth del osd.1    #将osd.1 auth值从auth表中删除
updated
[root@ceph ~]# ceph auth list     
installed auth entries:

osd.0
        key: AQDZ7T5ZmLx3MBAAR8Vhqt1UvreMUwSSmdfeSw==
        caps: [mon] allow profile osd
        caps: [osd] allow *
client.admin
        key: AQBA7T5ZAAAAABAAlJhtiG0oJVOeXlBc0Mzokw==
        caps: [mds] allow *
        caps: [mgr] allow *
        caps: [mon] allow *
        caps: [osd] allow *
client.bootstrap-osd
        key: AQDA7T5ZBzemGhAAwQgt7wU3kVJps7IoLAg0TA==
        caps: [mon] allow profile bootstrap-osd

#此时发现osd.1的auth值已从auth表中清除

[root@ceph ~]# systemctl restart ceph-osd@1  #重启osd
[root@ceph ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1      down  1.00000          1.00000

#此时发现osd.1已经down了

 

如何恢复?

步骤如下:

  • 进入/var/lib/ceph/osd/ceph-*
[root@ceph ~]# cd /var/lib/ceph/osd/ceph-1
[root@ceph ceph-1]# ls
total 60
-rw-r--r--. 1 root root 202 Jun 17 01:34 activate.monmap
-rw-r--r--. 1 ceph ceph   3 Jun 17 01:44 active
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block -> /dev/disk/by-partuuid/87f73ff4-7add-4e83-94e9-29869c7c0123
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block.db -> /dev/disk/by-partuuid/f70d731a-666b-4828-8cb7-59c4aa498a91
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block.db_uuid
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block_uuid
lrwxrwxrwx. 1 ceph ceph  58 Jun 17 01:34 block.wal -> /dev/disk/by-partuuid/fbe8751d-c2ae-4db4-8a35-7ab699401b58
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 block.wal_uuid
-rw-r--r--. 1 ceph ceph   2 Jun 17 01:34 bluefs
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 ceph_fsid
-rw-r--r--. 1 ceph ceph  37 Jun 17 01:34 fsid
-rw-------. 1 ceph ceph 124 Jun 17 18:10 keyring
-rw-r--r--. 1 ceph ceph   8 Jun 17 01:34 kv_backend
-rw-r--r--. 1 ceph ceph  21 Jun 17 01:34 magic
-rw-r--r--. 1 ceph ceph   4 Jun 17 01:34 mkfs_done
-rw-r--r--. 1 ceph ceph   6 Jun 17 01:34 ready
-rw-r--r--. 1 ceph ceph   0 Jun 17 01:44 systemd
-rw-r--r--. 1 ceph ceph  10 Jun 17 01:34 type
-rw-r--r--. 1 ceph ceph   2 Jun 17 01:34 whoami

#其中keying文件记录的就是该osd部分auth值
  • 修改keying文件
[root@ceph ceph-1]# cat keyring 
[osd.1]
        key = AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==              #默认

[root@ceph ceph-1]# cat keyring 
[osd.1]
        key = AQDAFkRZEHhnGxAAjfbGRNNNT5kWvGl4jpKjYg==
        caps mon = "allow profile osd"                              #增加
        caps osd = "allow *"                                        #增加
  • 将keying文件的内容上传到mon
[root@ceph ceph-1]# ceph auth import -i keyring 
imported keyring

[root@ceph ceph-1]# systemctl restart ceph-osd@1

[root@ceph ceph-1]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-1 0.02719 root default                                      
-2 0.01849     host ceph58                                   
 0 0.01849         osd.0        up  1.00000          1.00000 
-3 0.00870     host ceph28                                   
 1 0.00870         osd.1        up  1.00000          1.00000

 

© 著作权归作者所有

共有 人打赏支持
泽_娟
粉丝 0
博文 25
码字总数 9857
作品 0
长沙
ceph的数据存储之路(7) -----PG 的状态机和peering过程

PG 的状态机和peering过程 首先来解释下什么是pg peering过程? 当最初建立PG之后,那么需要同步这个pg上所有osd中的pg状态。在这个同步状态的过程叫做peering过程。同样当启动osd的时候,这...

一只小江 ⋅ 2015/11/30 ⋅ 4

ceph的数据存储之路(8) -----pg 的数据恢复过程

2016-10-26 更新start—————————————————————————————————————— 感谢 大水牛提出的疑问:对与本文中第二节,OSD恢复时常用的基本概念解析中对acting和...

一只小江 ⋅ 2016/01/04 ⋅ 19

ceph 集群访问权限配置

1、配置文件/etc/ceph/ceph.conf如下 [global] auth cluster required = cephx auth service required = cephx auth client required = cephx ;keyring = /etc/ceph/keyring ax open files =......

惊浪 ⋅ 2015/01/16 ⋅ 0

Ceph集群缩容及相关故障处理

引言 由于目前机器比较紧张,需要将我集群中的一批机器提供给其他业务使用,这时问题来了,集群机器的退出意味着数据要重新分布,数据迁移的过程中比较容易出故障。 处理过程 处理测试POOL对...

西昆仑 ⋅ 2016/09/23 ⋅ 0

ceph 手工部署集群

环境:ubuntu-server 16.04,两台arm服务器 分别为node1和node2,node1和node2分别安装monitor和3个osd,在node1上部署MDS,ceph 一、准备工作 systemctl stop ufw #禁用防火墙 systemctl di...

zrz11 ⋅ 2016/12/14 ⋅ 0

ceph rbd与openstack的结合

openstack通过libvirt调用qemu来启动具体的虚拟机,qemu通过librbd这个库与librados通信,而librados是ceph集群的统一API库,这样一来openstack就与ceph rbd联系起来了。具体调用流程如下图所...

linuxhunter ⋅ 2015/12/09 ⋅ 0

手动编译配置ceph

一、手工编译ceph源代码。 1、下载ceph源代码。 从阿里云开源镜像网站下载当前最新版本的ceph源代码,具体下载地址如下:http://mirrors.aliyun.com/ceph/tarballs/ceph10.2.1.orig.tar.gz ...

linuxhunter ⋅ 2016/05/26 ⋅ 5

centos7 安装配置ceph

前期准备: 规划:8台机器 IP hostname role 192.168.2.20 mon mon.mon 192.168.2.21 osd1 osd.0,mon.osd1 192.168.2.22 osd2 osd.1,mds.b(standby) 192.168.2.23 osd3 osd.2 192.168.2.24 o......

anxingjie ⋅ 2015/08/20 ⋅ 0

ceph PGLog处理流程

ceph的PGLog是由PG来维护,记录了该PG的所有操作,其作用类似于数据库里的undo log。PGLog通常只保存近千条的操作记录(默认是3000条),但是当PG处于降级状态时,就会保存更多的日志(默认是...

linuxhunter ⋅ 2016/05/23 ⋅ 0

ceph安装部署错误Error connecting to cluster: TimedOut

系统:ubuntu14.04 server , ceph0.8 在监控mon添加成功,在添加监控mon的节点添加osd同样成功,但是在另外节点osd1,添加osd时,出错,如下: 在osd1节点运行如下命令都会报相同的错误: ce...

高洪磊 ⋅ 2015/07/29 ⋅ 0

没有更多内容

加载失败,请刷新页面

加载更多

下一页

从 Confluence 5.3 及其早期版本中恢复空间

如果你需要从 Confluence 5.3 及其早期版本中的导出文件恢复到晚于 Confluence 5.3 的 Confluence 中的话。你可以使用临时的 Confluence 空间安装,然后将这个 Confluence 安装实例升级到你现...

honeymose ⋅ 17分钟前 ⋅ 0

用ZBLOG2.3博客写读书笔记网站能创造今日头条的辉煌吗?

最近两年,著名的自媒体网站今日头条可以说是火得一塌糊涂,虽然从目前来看也遇到了一点瓶颈,毕竟发展到了一定的规模,继续增长就更加难了,但如今的今日头条规模和流量已经非常大了。 我们...

原创小博客 ⋅ 今天 ⋅ 0

MyBatis四大核心概念

本文讲解 MyBatis 四大核心概念(SqlSessionFactoryBuilder、SqlSessionFactory、SqlSession、Mapper)。 MyBatis 作为互联网数据库映射工具界的“上古神器”,训有四大“神兽”,谓之:Sql...

waylau ⋅ 今天 ⋅ 0

以太坊java开发包web3j简介

web3j(org.web3j)是Java版本的以太坊JSON RPC接口协议封装实现,如果需要将你的Java应用或安卓应用接入以太坊,或者希望用java开发一个钱包应用,那么用web3j就对了。 web3j的功能相当完整...

汇智网教程 ⋅ 今天 ⋅ 0

2个线程交替打印100以内的数字

重点提示: 线程的本质上只是一个壳子,真正的逻辑其实在“竞态条件”中。 举个例子,比如本题中的打印,那么在竞态条件中,我只需要一个方法即可; 假如我的需求是2个线程,一个+1,一个-1,...

Germmy ⋅ 今天 ⋅ 0

Springboot2 之 Spring Data Redis 实现消息队列——发布/订阅模式

一般来说,消息队列有两种场景,一种是发布者订阅者模式,一种是生产者消费者模式,这里利用redis消息“发布/订阅”来简单实现订阅者模式。 实现之前先过过 redis 发布订阅的一些基础概念和操...

Simonton ⋅ 今天 ⋅ 0

error:Could not find gradle

一.更新Android Studio后打开Project,报如下错误: Error: Could not find com.android.tools.build:gradle:2.2.1. Searched in the following locations: file:/D:/software/android/andro......

Yao--靠自己 ⋅ 昨天 ⋅ 0

Spring boot 项目打包及引入本地jar包

Spring Boot 项目打包以及引入本地Jar包 [TOC] 上篇文章提到 Maven 项目添加本地jar包的三种方式 ,本篇文章记录下在实际项目中的应用。 spring boot 打包方式 我们知道,传统应用可以将程序...

Os_yxguang ⋅ 昨天 ⋅ 0

常见数据结构(二)-树(二叉树,红黑树,B树)

本文介绍数据结构中几种常见的树:二分查找树,2-3树,红黑树,B树 写在前面 本文所有图片均截图自coursera上普林斯顿的课程《Algorithms, Part I》中的Slides 相关命题的证明可参考《算法(第...

浮躁的码农 ⋅ 昨天 ⋅ 0

android -------- 混淆打包报错 (warning - InnerClass ...)

最近做Android混淆打包遇到一些问题,Android Sdutio 3.1 版本打包的 错误如下: Android studio warning - InnerClass annotations are missing corresponding EnclosingMember annotation......

切切歆语 ⋅ 昨天 ⋅ 0

没有更多内容

加载失败,请刷新页面

加载更多

下一页

返回顶部
顶部