文档章节

CentOS7.0安装配置Redis集群

小爪进击者
 小爪进击者
发布于 2018/04/02 14:02
字数 2413
阅读 14
收藏 8

1.redis集群简介

redis集群在启动的时候就自动在多个节点间分好片。同时提供了分片之间的可用性:当一部分redis节点故障或网络中断,集群也能继续工作。但是,当大面积的节点故障或网络中断(比如大部分的主节点都不可用了),集群就不能使用。 
所以,从实用性的角度,Redis集群提供以下功能: 
● 自动把数据切分到多个redis节点中 
● 当一部分节点挂了或不可达,集群依然能继续工作

2.redis集群数据分片

Redis集群不是使用一致性哈希,而是使用哈希槽。整个redis集群有16384个哈希槽,决定一个key应该分配到那个槽的算法是:计算该key的CRC16结果再模16834。 
集群中的每个节点负责一部分哈希槽,比如集群中有3个节点,则: 
● 节点A存储的哈希槽范围是:0 – 5500 
● 节点B存储的哈希槽范围是:5501 – 11000 
● 节点C存储的哈希槽范围是:11001 – 16384 
这样的分布方式方便节点的添加和删除。比如,需要新增一个节点D,只需要把A、B、C中的部分哈希槽数据移到D节点。同样,如果希望在集群中删除A节点,只需要把A节点的哈希槽的数据移到B和C节点,当A节点的数据全部被移走后,A节点就可以完全从集群中删除。 
因为把哈希槽从一个节点移到另一个节点是不需要停机的,所以,增加或删除节点,或更改节点上的哈希槽,也是不需要停机的。 
如果多个key都属于一个哈希槽,集群支持通过一个命令(或事务, 或lua脚本)同时操作这些key。通过“哈希标签”的概念,用户可以让多个key分配到同一个哈希槽。哈希标签在集群详细文档中有描述,这里做个简单介绍:如果key含有大括号”{}”,则只有大括号中的字符串会参与哈希,比如”this{foo}”和”another{foo}”这2个key会分配到同一个哈希槽,所以可以在一个命令中同时操作他们。

3.redis的主从模式

为了保证在部分节点故障或网络不通时集群依然能正常工作,集群使用了主从模型,每个哈希槽有一(主节点)到N个副本(N-1个从节点)。在我们刚才的集群例子中,有A,B,C三个节点,如果B节点故障集群就不能正常工作了,因为B节点中的哈希槽数据没法操作。但是,如果我们给每一个节点都增加一个从节点,就变成了:A,B,C三个节点是主节点,A1, B1, C1 分别是他们的从节点,当B节点宕机时,我们的集群也能正常运作。B1节点是B节点的副本,如果B节点故障,集群会提升B1为主节点,从而让集群继续正常工作。但是,如果B和B1同时故障,集群就不能继续工作了。 
Redis集群的一致性保证 
Redis集群不能保证强一致性。一些已经向客户端确认写成功的操作,会在某些不确定的情况下丢失。 
产生写操作丢失的第一个原因,是因为主从节点之间使用了异步的方式来同步数据。 
一个写操作是这样一个流程: 
1)客户端向主节点B发起写的操作2)主节点B回应客户端写操作成功3)主节点B向它的从节点B1,B2,B3同步该写操作 
从上面的流程可以看出来,主节点B并没有等从节点B1,B2,B3写完之后再回复客户端这次操作的结果。所以,如果主节点B在通知客户端写操作成功之后,但同步给从节点之前,主节点B故障了,其中一个没有收到该写操作的从节点会晋升成主节点,该写操作就这样永远丢失了。 
就像传统的数据库,在不涉及到分布式的情况下,它每秒写回磁盘。为了提高一致性,可以在写盘完成之后再回复客户端,但这样就要损失性能。这种方式就等于Redis集群使用同步复制的方式。 
基本上,在性能和一致性之间,需要一个权衡。

4. 创建和使用redis集群

4.1.下载redis文件

[root@apollo dtadmin]# wget http://download.redis.io/releases/redis-3.2.9.tar.gz

4.2.解压redis到/opt/目录下

[root@apollo dtadmin]# tar -zxvf redis-3.2.9.tar.gz -C /opt/

4.3.编译redis

#进入目录/opt/redis-3.2.9
[root@apollo dtadmin]# cd /opt/redis-3.2.9/
[root@artemis redis-3.2.9]# make && make install #如果报错,说明缺少依赖包,要先执行以下命令
[root@artemis redis-cluster]# yum -y install ruby ruby-devel rubygems rpm-build gcc

4.4.配置redis集群

4.4.1.环境准备

# hostname ip software port notes
1 apollo.dt.com 192.168.56.181 redis 7000
7001
7002
 
2 artemis.dt.com 192.168.56.182 redis 7003
7004
7005
 
3 uranus.dt.com 192.168.56.183 redis 7006
7007
7008
 

4.4.2 在/opt/redis-3.2.9/目录下创建目录redis-cluster

#创建目录redis-cluster
[root@apollo redis-3.2.9]# mkdir redis-cluster
#在redis-cluster目录下创建三个子目录
[root@apollo redis-cluster]# mkdir -p 7000 7001 7002
#把/opt/redis-3.2.9目录下的redis.conf分别拷贝一份到7000, 7001和7002目录下:
[root@apollo redis-cluster]# cp /opt/redis-3.2.9/redis.conf /opt/redis-3.2.9/redis-cluster/7000
[root@apollo redis-cluster]# cp /opt/redis-3.2.9/redis.conf /opt/redis-3.2.9/redis-cluster/7001
[root@apollo redis-cluster]# cp /opt/redis-3.2.9/redis.conf /opt/redis-3.2.9/redis-cluster/7002

4.4.3.配置子目录/opt/redis-3.2.9/redis-cluster/目录下三个子目录7000, 7001和7002下的redis.conf文件,主要修改内容为:

[root@apollo redis-cluster]# vim 7000/redis.conf 
[root@apollo redis-cluster]# vim 7001/redis.conf 
[root@apollo redis-cluster]# vim 7002/redis.conf 
###############配置修改项########################
bind 192.168.56.181 #修改为本机IP
port 7000 #要根据所在的子目录下配置
daemonize yes
pidfile /var/run/redis_7000.pid  #要根据所在的子目录下配置
logfile "/var/log/redis-7000.log" #要根据所在的子目录下配置
appendonly yes
cluster-enabled yes
cluster-config-file nodes-7000.conf #要根据所在的子目录下配置
cluster-node-timeout 15000

4.4.4.以相同方法配置其它两台务器

不同的是要用7003,7004,7005,7006,7007,7008端口号并创建相应的子目录。

5.启动redis集群

5.1.在第一台服务器上启动redis

[root@apollo redis-cluster]# redis-server 7001/redis.conf 
[root@apollo redis-cluster]# redis-server 7002/redis.conf 
[root@apollo redis-cluster]# redis-server 7003/redis.conf 

5.2.在第二台机器启动redis

[root@artemis redis-cluster]# redis-server 7003/redis.conf 
[root@artemis redis-cluster]# redis-server 7004/redis.conf 
[root@artemis redis-cluster]# redis-server 7005/redis.conf 

5.3 在第三台服务器上启动redis

[root@uranus redis-cluster]# redis-server 7006/redis.conf 
[root@uranus redis-cluster]# redis-server 7007/redis.conf 
[root@uranus redis-cluster]# redis-server 7008/redis.conf 

6.验证各个服务器上的redis启动状态

6.1.第一台服务器

[root@apollo redis-cluster]# ps -ef | grep redis
root     18313     1  0 16:44 ?        00:00:00 redis-server 192.168.56.181:7001 [cluster]
root     18325     1  0 16:44 ?        00:00:00 redis-server 192.168.56.181:7002 [cluster]
root     18371     1  0 16:45 ?        00:00:00 redis-server 192.168.56.181:7000 [cluster]
root     18449  2564  0 16:46 pts/0    00:00:00 grep --color=auto redis

[root@apollo redis-cluster]# netstat -tnlp | grep redis
tcp        0      0 192.168.56.181:7001     0.0.0.0:*               LISTEN      18313/redis-server  
tcp        0      0 192.168.56.181:7002     0.0.0.0:*               LISTEN      18325/redis-server  
tcp        0      0 192.168.56.181:17000    0.0.0.0:*               LISTEN      18371/redis-server  
tcp        0      0 192.168.56.181:17001    0.0.0.0:*               LISTEN      18313/redis-server  
tcp        0      0 192.168.56.181:17002    0.0.0.0:*               LISTEN      18325/redis-server  
tcp        0      0 192.168.56.181:7000     0.0.0.0:*               LISTEN      18371/redis-server  

6.2.第二台服务器

[root@artemis redis-cluster]# ps -ef | grep redis
root      5351     1  0 16:45 ?        00:00:00 redis-server 192.168.56.182:7003 [cluster]
root      5355     1  0 16:45 ?        00:00:00 redis-server 192.168.56.182:7004 [cluster]
root      5359     1  0 16:46 ?        00:00:00 redis-server 192.168.56.182:7005 [cluster]

[root@artemis redis-cluster]# netstat -tnlp | grep redis
tcp        0      0 192.168.56.182:7003     0.0.0.0:*               LISTEN      5351/redis-server 1 
tcp        0      0 192.168.56.182:7004     0.0.0.0:*               LISTEN      5355/redis-server 1 
tcp        0      0 192.168.56.182:7005     0.0.0.0:*               LISTEN      5359/redis-server 1 
tcp        0      0 192.168.56.182:17003    0.0.0.0:*               LISTEN      5351/redis-server 1 
tcp        0      0 192.168.56.182:17004    0.0.0.0:*               LISTEN      5355/redis-server 1 
tcp        0      0 192.168.56.182:17005    0.0.0.0:*               LISTEN      5359/redis-server 1 

6.3.第三台服务器

[root@uranus redis-cluster]# ps -ef | grep redis
root     21138     1  0 16:46 ?        00:00:00 redis-server 192.168.56.183:7006 [cluster]
root     21156     1  0 16:46 ?        00:00:00 redis-server 192.168.56.183:7008 [cluster]
root     21387     1  0 16:50 ?        00:00:00 redis-server 192.168.56.183:7007 [cluster]
root     21394  9287  0 16:50 pts/0    00:00:00 grep --color=auto redis

[root@uranus redis-cluster]# netstat -tnlp | grep redis
tcp        0      0 192.168.56.183:7006     0.0.0.0:*               LISTEN      2959/redis-server 1 
tcp        0      0 192.168.56.183:7007     0.0.0.0:*               LISTEN      2971/redis-server 1 
tcp        0      0 192.168.56.183:7008     0.0.0.0:*               LISTEN      2982/redis-server 1 
tcp        0      0 192.168.56.183:17006    0.0.0.0:*               LISTEN      2959/redis-server 1 
tcp        0      0 192.168.56.183:17007    0.0.0.0:*               LISTEN      2971/redis-server 1 
tcp        0      0 192.168.56.183:17008    0.0.0.0:*               LISTEN      2982/redis-server 1 

7.创建redis集群

[root@apollo src]# ./redis-trib.rb create --replicas 1 192.168.56.181:7000 192.168.56.181:7001 192.168.56.181:7002 192.168.56.182:7003 192.168.56.182:7004 192.168.56.182:7005 192.168.56.183:7006 192.168.56.183:7007 192.168.56.183:7008


>>> Creating cluster
>>> Performing hash slots allocation on 9 nodes...
Using 4 masters:
192.168.56.181:7000
192.168.56.182:7003
192.168.56.183:7006
192.168.56.181:7001
Adding replica 192.168.56.182:7004 to 192.168.56.181:7000
Adding replica 192.168.56.183:7007 to 192.168.56.182:7003
Adding replica 192.168.56.181:7002 to 192.168.56.183:7006
Adding replica 192.168.56.182:7005 to 192.168.56.181:7001
Adding replica 192.168.56.183:7008 to 192.168.56.181:7000
M: 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 192.168.56.181:7000
   slots:0-4095 (4096 slots) master
M: 0d0b4528f32db0111db2a78b8451567086b66d97 192.168.56.181:7001
   slots:12288-16383 (4096 slots) master
S: e7b8ba7a800683ba017401bde9a72bb34ad252d8 192.168.56.181:7002
   replicates 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa
M: 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce 192.168.56.182:7003
   slots:4096-8191 (4096 slots) master
S: 13863d63aa323fd58e7ceeba1ccc91b6304d0539 192.168.56.182:7004
   replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0
S: da3556753efe388a64fafc259338ea420a795163 192.168.56.182:7005
   replicates 0d0b4528f32db0111db2a78b8451567086b66d97
M: 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa 192.168.56.183:7006
   slots:8192-12287 (4096 slots) master
S: ab90ee3ff9834a88416da311011e9bdfaa9a831f 192.168.56.183:7007
   replicates 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce
S: b0dda91a2527f71fe555cdd28fa8be4b571a4bed 192.168.56.183:7008
   replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join........
>>> Performing Cluster Check (using node 192.168.56.181:7000)
M: 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 192.168.56.181:7000
   slots:0-4095 (4096 slots) master
   2 additional replica(s)
S: e7b8ba7a800683ba017401bde9a72bb34ad252d8 192.168.56.181:7002
   slots: (0 slots) slave
   replicates 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa
S: ab90ee3ff9834a88416da311011e9bdfaa9a831f 192.168.56.183:7007
   slots: (0 slots) slave
   replicates 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce
M: 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce 192.168.56.182:7003
   slots:4096-8191 (4096 slots) master
   1 additional replica(s)
M: 0d0b4528f32db0111db2a78b8451567086b66d97 192.168.56.181:7001
   slots:12288-16383 (4096 slots) master
   1 additional replica(s)
M: 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa 192.168.56.183:7006
   slots:8192-12287 (4096 slots) master
   1 additional replica(s)
S: b0dda91a2527f71fe555cdd28fa8be4b571a4bed 192.168.56.183:7008
   slots: (0 slots) slave
   replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0
S: 13863d63aa323fd58e7ceeba1ccc91b6304d0539 192.168.56.182:7004
   slots: (0 slots) slave
   replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0
S: da3556753efe388a64fafc259338ea420a795163 192.168.56.182:7005
   slots: (0 slots) slave
   replicates 0d0b4528f32db0111db2a78b8451567086b66d97
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

本文转载自:https://www.linuxidc.com/Linux/2017-06/144948.htm

小爪进击者
粉丝 7
博文 60
码字总数 27167
作品 0
厦门
程序员
私信 提问
centos7.0安装redis

下载安装reids 进入Redis官网获取Redis最新稳定版下载地址 通过wget命令下载 Redis 源代码 解压 编译 二进制文件是编译完成后在src目录下,通过下面的命令在后端启动Redis服务: 配置redis 访...

niithub
2018/08/22
6
0
Hadoop-cluster 集群完全分布式环境搭建

安装准备 1) 3台centOS7.0系统 ecs 2) 2.8.0 hadoop 安装包 准备工作 首先 在ip_01主机上将/etc/hosts文件进行ip映射 使用scp命令将ip_01上的 hosts文件 复制到其它节点 ⚠️ 最好在覆盖之前...

秦琼
2017/04/26
32
0
hadoop redis mongodb

一、环境 系统 CentOS7.0 64位 namenode01 192.168.0.220 namenode02 192.168.0.221 datanode01 192.168.0.222 datanode02 192.168.0.223 datanode03 192.168.0.224 二、配置基础环境 在所有......

ly36843
2016/04/28
0
0
jedis访问redis被拒绝

CentOS7.0安装了redis4.0.10,安装成功并且windows上用RedisDesktopManager连接成功. CentOS防火墙已关: redis.conf配置文件已改: java程序如下: 报错如下: 怎么办?...

HaleyZhang
2018/06/19
718
4
CentOS下yum安装PHP

美国时间2014年11月13日,PHP开发团队,在「PHP 5.6.3 is available|PHP: Hypertext Preprocessor」上公布了PHP5.6系的最新版本「PHP 5.6.3」。 在最新的版本5.6.3不仅修改了多个Bug,并且修...

Yomut
2016/07/20
74
0

没有更多内容

加载失败,请刷新页面

加载更多

搭建高可用MongoDB集群(分片)

搭建高可用MongoDB集群(分片) MongoDB基础请参考:https://blog.51cto.com/kaliarch/2044423 MongoDB(replica set)请参考:https://blog.51cto.com/kaliarch/2044618 一、概述 1.1 背景 ......

linjin200
28分钟前
5
0
CDH6.0.1集成tez-0.9.1计算引擎

参考文章: https://www.jianshu.com/p/9fb9f32e1f0f https://www.baidu.com/link?url=OgpwasnZi7H1dySN2T111sseEWDBaCCTC3DFV61G7756YbrkJCA8Y3UFaueyqnfN&wd=&eqid=daeb8b3500049cf3000000......

Sheav
30分钟前
4
0
Vue内置指令的使用

v-model(数据绑定) v-model常用于表单数据的双向绑定,它本质上是一个语法糖。它主要的有两种应用: 在文本框、多行文本、input的下拉框、单选按钮、复选框中的应用 <div id="app"> ...

凌兮洛
30分钟前
5
0
外部来源应用检查-烦死了,终于找到解决设置了

Android 连接usb调试应用的时候: 华为关闭方法:1、设置-安全-更多安全设置,关掉外部来源应用检查。2、设置-系统-开发人员选项-关闭“监控ADB安装应用” 不知道OPPO 怎么关闭的?...

QGlaunch
31分钟前
4
0
6个K8s日志系统建设中的典型问题,你遇到过几个?

作者 | 元乙 阿里云日志服务数据采集客户端负责人,目前采集客户端 logtail 在集团百万规模部署,每天采集上万应用数 PB 数据,经历多次双 11、双 12 考验。 导读:随着 K8s 不断更新迭代,使...

阿里云官方博客
33分钟前
4
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部