TIDB 初级课程体验 8 (集群的管理维护, 添加一个TIKV节点)

原创
08/24 06:00
阅读数 0

TIDB 属于新型的分布式数据库,而这样的数据库本身的透明化的扩展的功能是一个这种类型的需要提供的功能.


在线扩容中,需要做以下工作,准备相关符合对应数据服务类型的节点. 然后编辑 scale-out.yaml  文件, 通过编辑文件来指定要添加节点的类型,地址和相关数据文件,程序文件锁需要存放的地点.


运行扩容命令通过tiup cluster scale-out 命令来对数据集群扩展节点.然后在通过 tiup cluster display 来确认信的节点是否加入到系统当中.


另外在TIDB  4.0 支持了TIFLASH ,这里需要4.0 版本的TIDB 在对TIFLASH 进行升级和扩容.


TIDB 在节方便的扩容的基础上,也可以方便的回收节点资源.  命令为tiup cluster scale-in <cluster-name>  --node  IP:port


重命名集群,TIDB 的集群本身也是可以进行更换名字的, 通过tiup cluster rename 旧的集群名  新的集群名 来更换分布式数据库的集群名.


清理集群的数据是无法恢复的,可以通过命令来清理日志数据或.

在TIDB 中可以对时区进行设置,而TIDB 中的时区仅仅影响TIMEZONE


从上的命令看第一个命令是可以通过改变后面的变换对 TIKV ,TIDB ,PD 等进行ONE BY ONE 的更新.



版本的升级其中包含了如上几项工作, 


1  保证你的TIUP 的工具是比较新的版本

2  对配置文件的修改,这样能保证配置文件符合升级版本的目标的配置项

3  升级的方式有两种停机升级, 不停机升级, 这里TIDB 建议如果有可能建议通过停机升级的方式,这样速度会比较快.

4  然后根据要升级的版本执行对应升级版本的命令

5  最后进行相关的验证


这里在升级前还需要对集群当前的region健康状态进行检查

tiup cluster check <cluster-name> --cluster 进行检测,检测region 的状态通过了在进行相关的升级. 如果返回 all region healthy 则可以进行后续的升级.


升级中, TIDB 有相关的leader 在升级的时候需要在升级的节点转移leader到其他的节点 然后在升级,这里设置的超时时间是5分钟,超时后节点会停止工作.  停机的方式是可以进行并行的升级, 在线升级是滚动的方式升级的.  


tiup cluster audit 可以查看相关的升级中失败的操作记录, 并且可以在重试升级操作的根据我们上次失败的ID (通过tiup cluster audit 获得ID)

如果不想等待的时间过长,可以通过参数 --force 来强制TIDB 升级时不迁移LEADER, 直接升级,此时这个节点上的LEADER region 无法进行工作,升级完毕后可以继续工作.

TIUP 升级的工具顺序是 

1  升级TIUP  2  升级TIUP CLUSTER  3 检查TIDB 的region的状态 4  升级TIDB cluster  5  检查TIDB 的集群状态 通过display 来查看集群的状态,另外需要注意的升级TIDB是可以进行回退的.


添加一个TIKV节点


1 确保当前的集群的状态是正确的



2  编辑一个添加节点信息的yaml文件






初始化新的TIKV 节点后, tikv 扩容完成.


在添加节点后, 数据会自动的往新的节点上进行迁移.  整体扩容就完成了



本文分享自微信公众号 - AustinDatabases(AustinDatabases)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部