Redis 部署模式详解
Redis 支持多种部署模式,主要包括单机模式(Single)、哨兵模式(Sentinel)、集群模式(Cluster)及增强代理集群,分别适用于不同场景,以下是它们的详细介绍。以下说明仅适用于 Redis 7.0+。
一、单机模式(Single)
1. 简介
(1)最简单的部署方式,仅运行单个 Redis 实例。
(2)无高可用性,如果实例崩溃,服务不可用。
(3)适用场景:开发环境。
2. 配置方法
(1)修改 redis.conf
ini
# 绑定 IP(默认仅本地访问)
bind 0.0.0.0 # 允许远程访问
# 设置密码(可选)
requirepass yourpassword
# 持久化配置(默认启用 RDB)
save 900 1 # 15 分钟内至少 1 次修改则保存
save 300 10 # 5 分钟内至少 10 次修改则保存
save 60 10000 # 1 分钟内至少 10000 次修改则保存
# 启用 AOF(可选)
appendonly yes
appendfilename "appendonly.aof"
(2)启动 Redis
bash
redis-server /path/to/redis.conf
(3)客户端连接
bash
redis-cli -h 127.0.0.1 -p 6379 -a yourpassword
二、哨兵模式(Sentinel)
1. 简介
(1)整体设计:主从架构 + 自动故障转移,提供高可用性(HA)。
(2)部署方式:1 个主节点(Master) + N 个从节点(Replica)+ M 个 Sentinel 节点。
(3)适用场景:需要高可用但不需要数据分片(水平扩展)的场景。
2. 整体架构
组成部分:
(1)1 个主节点(Master):负责写入和数据存储。
(2)N 个从节点(Replica):复制主节点数据,提供读能力。
(3)M 个哨兵节点(Sentinel):监控主从状态,触发故障转移。
执行流程:
(1)监控(Monitoring)
- 每个 Sentinel 定期检查 Master 和 Replica 是否存活(默认每秒 1 次)。
- 若 Master 未响应超过 down-after-milliseconds(如 30 秒),Sentinel 标记其为 主观下线(SDOWN)。
(2)选举(Leader Election)
- 当多数 Sentinel(>=
quorum
配置值)确认 Master 下线,标记为 客观下线(ODOWN)。 - Sentinel 集群通过 Raft 协议选举一个 Leader Sentinel 来执行故障转移。
(3)故障转移(Failover)
- Leader Sentinel 选择一个最优的 Replica 提升为新的 Master。
- 通知其他 Replica 复制新 Master。
- 更新客户端连接信息(通过
+switch-master
事件通知)。
(4)客户端重定向
- 客户端通过 Sentinel 获取最新的 Master 地址(如
SENTINEL get-master-addr-by-name mymaster
)。
交互流程:
3. 配置方法
(1)主节点配置(redis-master.conf
)
ini
bind 0.0.0.0
requirepass yourpassword
masterauth yourpassword # 从节点访问主节点的密码
(2)从节点配置(redis-replica.conf
)
ini
bind 0.0.0.0
requirepass yourpassword
replicaof 127.0.0.1 6379 # 指向主节点
masterauth yourpassword # 主节点密码
(3)哨兵配置(sentinel.conf
)
ini
sentinel monitor mymaster 127.0.0.1 6379 2 # 监控主节点,2 表示至少 2 个 Sentinel 同意才触发故障转移
sentinel auth-pass mymaster yourpassword # 主节点密码
sentinel down-after-milliseconds mymaster 5000 # 5 秒无响应视为下线
sentinel failover-timeout mymaster 60000 # 故障转移超时时间(60 秒)
(4)启动服务
bash
# 启动主节点
redis-server redis-master.conf
# 启动从节点
redis-server redis-replica.conf
# 启动 Sentinel
redis-sentinel sentinel.conf
(5)验证故障转移
bash
# 查看主从信息
redis-cli -p 6379 INFO replication
# 手动关闭主节点,观察 Sentinel 日志
tail -f /var/log/redis/sentinel.log
(6)客户端配置示例
无需配置全部 Sentinel 地址:客户端只需连接任意一个正常工作的 Sentinel 即可获取集群状态(Sentinel 之间通过 Gossip 协议自动同步信息)。
推荐配置多个 Sentinel 地址:仅用于容灾,避免某个 Sentinel 不可用时客户端无法初始化。
java
Set<String> sentinels = new HashSet<>();
sentinels.add("sentinel1:26379"); // 只需 1 个 Sentinel 即可工作
sentinels.add("sentinel2:26379"); // 额外添加用于容灾
sentinels.add("sentinel3:26379"); // 非必须,但建议
JedisSentinelPool pool = new JedisSentinelPool("mymaster", sentinels);
4. 特点
(1)高可用:Sentinel 确保主节点故障时自动切换。
(2)无分片:仅解决 HA 问题,不扩展写性能。
(3)最少 3 节点:建议部署 3 个 Sentinel 以避免脑裂问题。
三、集群模式(Cluster)
1. 简介
(1)整体设计:支持主从实现高可用,将数据分片到 16384 个槽(Slot),每个节点负责部分槽,已实现水平扩展。
(2)适用场景:大数据量、高并发、需要横向扩展的场景。
2. 整体架构
组成部分:
(1)Master 节点(主节点)
- 负责处理客户端读写请求。
- 管理分配的哈希槽(Slot)范围(如
Slots 0-5460
)。 - 通过 Gossip 协议 与其他节点交换集群状态信息。
(2)Slave 节点(从节点)
- 异步复制对应 Master 的数据(通过
-->|Replication|
箭头表示)。 - 当 Master 故障时,Slave 可自动晋升为新的 Master(故障转移)。
- 可处理读请求(需客户端配置
READONLY
)。
(3)通信协议
- 节点间通过 Gossip 协议(PING/PONG 消息)交换集群拓扑、槽分配、节点状态等信息。
数据机制:
(1)哈希槽(Slots)分布
- Redis Cluster 将所有数据划分为 16384 个槽位 ,每个 Master 负责一部分槽范围(如
0-5460
)。 - 客户端通过
CRC16(key) mod 16384
计算键所属的槽位。
(2)Move 重定向
- 若客户端访问的键不属于当前连接的节点,节点会返回
MOVED
错误并指引正确节点。
3. 配置方法
(1)修改 redis.conf
(每个节点)
ini
bind 0.0.0.0
cluster-enabled yes # 启用集群模式
cluster-config-file nodes-6379.conf # 集群节点配置文件
cluster-node-timeout 15000 # 节点超时时间(15 秒)
requirepass yourpassword # 集群密码
masterauth yourpassword # 主节点间认证密码
(2)启动所有节点
bash
redis-server /path/to/redis-6379.conf
redis-server /path/to/redis-6380.conf
(3)创建集群
bash
# 6 个节点(3 主 3 从)
redis-cli --cluster create \
127.0.0.1:6379 127.0.0.1:6380 127.0.0.1:6381 \
127.0.0.1:6382 127.0.0.1:6383 127.0.0.1:6384 \
# --cluster-replicas 1 表示每个主节点有 1 个从节点
--cluster-replicas 1 -a yourpassword
(4)验证集群状态
bash
redis-cli -c -p 6379 -a yourpassword
127.0.0.1:6379> CLUSTER INFO
127.0.0.1:6379> CLUSTER NODES
(5)客户端配置示例
支持集群协议:客户端需实现 Redis Cluster 的 MOVED/ASK 重定向逻辑(主流客户端库已内置支持)。
种子节点配置:只需配置集群中任意 1-2 个节点地址(客户端会自动发现其他节点)。
认证信息:若集群启用密码,需统一所有节点的密码。
java
public class RedisClusterExample {
public static void main(String[] args) {
// 1. 配置至少一个集群节点地址(多个更容错)
Set<HostAndPort> nodes = new HashSet<>();
nodes.add(new HostAndPort("127.0.0.1", 6379));
nodes.add(new HostAndPort("127.0.0.1", 6380));
// 2. 创建集群连接(带密码)
JedisCluster jedisCluster = new JedisCluster(nodes, 2000, 2000, 5, "yourpassword");
// 3. 执行命令(自动处理重定向)
jedisCluster.set("foo", "bar");
String value = jedisCluster.get("foo");
System.out.println(value); // 输出 "bar"
// 4. 关闭连接
jedisCluster.close();
}
}
4. 特点
(1)在 Redis Cluster 中,扩充主节点时,必须重新分配槽(Slots),这是由集群的分布式数据分片机制决定的。
(2)节点故障时,槽是否要重新分配,具体场景如下:
场景 | 槽是否重新分配 | 解决方案 |
---|---|---|
主节点故障,有从节点 | 否(从节点继承槽) | 自动故障转移 |
主节点及所有从节点故障 | 是(槽处于 FAIL 状态) |
手动恢复或重新分配槽 |
网络分区导致脑裂 | 可能部分槽不可用 | 等待恢复或强制修复 |
四、增强代理集群模式
上述三种部署模式特点如下:
模式 | 数据分片 | 高可用 | 适用场景 |
---|---|---|---|
单机 | ❌ | ❌ | 开发测试、低流量生产 |
哨兵 | ❌ | ✅ | 高可用但不需分片(横向扩展) |
集群 | ✅ | ✅ | 大数据量、高并发、横向扩展 |
在实际生产环境中,推荐采用 Redis 集群模式(Cluster)部署,以确保集群高可用(主从)与水平扩展(数据分片),但该模式存在客户端配置繁琐、无法兼容历史配置等问题,所以官方推出了 Redis Cluster Proxy,旨在简化客户端与 Redis Cluster 的交互,它允许客户端像连接单节点 Redis 一样访问 Redis Cluster,无需处理 MOVED/ASK 重定向和集群拓扑变更。
1. Redis Cluster Proxy 核心功能
(1)透明集群访问
- 客户端无需感知集群拓扑,Proxy 自动处理请求路由和重定向。
- 兼容标准 Redis 协议,支持所有单节点命令(除部分集群管理命令如
CLUSTER
)。
(2)连接池管理
- 复用后端连接,减少客户端与多个节点直接建连的开销。
(3)协议兼容性
- 支持旧版 Redis 客户端(如仅支持单节点模式的 SDK)。
(4)性能较好
- 基于 C 开发,性能损耗低(官方测试延迟增加约 10%)。
2. Redis Cluster Proxy 配置方法
(1) 安装 Redis Cluster Proxy
bash
# 从官方仓库编译安装
git clone https://github.com/RedisLabs/redis-cluster-proxy.git
cd redis-cluster-proxy
make
./src/redis-cluster-proxy -c proxy.conf
(2) 配置文件 proxy.conf
ini
# 绑定端口
bind 0.0.0.0
port 7777
# 后端 Redis Cluster 节点
cluster-node-timeout 5000
cluster 127.0.0.1:7001 127.0.0.1:7002 127.0.0.1:7003
(3) 启动 Proxy
bash
./src/redis-cluster-proxy -c proxy.conf
3. Redis Cluster Proxy 部署增强
实际部署 Proxy 时,为确保整个系统高可用,应部署多个 Proxy 实例,通过 HAProxy(或 LVS、Envoy)实现 Proxy 的高可用与水平扩展,整体架构如下:
负载均衡层:
(1)作用:
- 将请求分发到多个 Proxy 实例(轮询/最小连接数)。
- 健康检查自动剔除故障 Proxy。
(2)配置示例(以 HAProxy 为例):
ini
frontend redis-proxy
bind *:6379
mode tcp
default_backend proxy_servers
backend proxy_servers
mode tcp
balance roundrobin
server proxy1 192.168.1.100:7777 check inter 2s
server proxy2 192.168.1.101:7777 check inter 2s
为保证 HAProxy 的高可用,我们一般会部署两套 HAProxy,通过 Keepalived 互为主备,即增强代理集群,整体架构如下:
该集群具备 Redis Cluster 的高可用与水平扩展能力,以及 Redis Cluster Proxy 的透明访问特性(兼容历史配置,简化客户端调用)。此外,借助 Keepalived 和 HAProxy(或 LVS、Envoy),实现 Redis Cluster Proxy 节点及集群的高可用,同时简化了集群调用代码的配置复杂度。
五、总结与建议
哨兵模式不支持水平扩展,且与集群模式一样,存在与客户端配置代码强耦合,难以兼容历史配置,无法实现透明访问等问题。因此在实际使用中,推荐采用 Keepalived + HAProxy(LVS 或 Envoy) + Redis Cluster Proxy + Redis Cluster 增强代理集群模式部署,以实现集群高可用、水平扩展、透明访问及兼容历史配置等必要功能。