Zookeeper分布式锁实现

文章目录

1、zk分布式锁的实现原理

Z o o k e e p e r Zookeeper Zookeeper 就是使用临时顺序节点特性实现分布式锁的,官网

  • 获取锁过程 (创建临时节点,检查序号最小)
  • 释放锁 (删除临时节点,监听通知)

1_获取锁过程

1、当第一个客户端请求过来时, Z o o k e e p e r Zookeeper Zookeeper客户端会创建一个持久节点/locks

如果它(Client1 )想获得锁,需要在locks 节点下创建一个顺序节点lock1。如图

2、接着,客户端 Client1 会查找locks 下面的所有临时顺序子节点,判断自己的节点lock1是不是排序最小的那一个,如果是,则成功获得锁。

3、这时候如果又来一个客户端Client2 前来尝试获得锁,它会在locks 下再创建一个临时节点lock2

4、客户端 Client2 一样也会查找locks 下面的所有临时顺序子节点,判断自己的节点lock2 是不是最小的,此时,发现lock1才是最小的,于是获取锁失败。

获取锁失败,它是不会甘心的,Client2 向它排序靠前的节点lock1 注册Watcher 事件,用来监听lock1 是否存在,也就是说 Client2 抢锁失败进入等待状态。

5、此时,如果再来一个客户端Client3 来尝试获取锁,它会在locks 下再创建一个临时节点lock3

6、同样的,Client3 一样也会查找locks 下面的所有临时顺序子节点,判断自己的节点lock3是不是最小的,发现自己不是最小的,就获取锁失败。

它也是不会甘心的,它会向在它前面的节点lock2 注册Watcher 事件,以监听lock2节点是否存在。

2_释放锁

再来看看释放锁的流程, Z o o k e e p e r Zookeeper Zookeeper的「客户端业务完成或者故障」,都会删除临时节点,释放锁。

如果是任务完成,Client1 会显式调用删除lock1的指令。

如果是客户端故障了,根据临时节点得特性,lock1是会自动删除的。

lock1 节点被删除后,Client2 一直监听着lock1。

lock1 节点删除,Client2 立刻收到通知,也会查找locks 下面的所有临时顺序子节点,发现lock2是最小,就获得锁。

同理,Client2 获得锁之后,Client3 持续监听。

2、代码实现

基于 Z o o k e e p e r Zookeeper Zookeeper 原生态的客户端类实现分布式是非常麻烦的,我们使用 a p a h c e apahce apahce 提供的一个 z o o k e e p e r zookeeper zookeeper 客户端来实现。

Curator (动物园园长): http://curator.apache.org/

xml 复制代码
<dependency>
    <groupId>org.apache.curator</groupId>
    <artifactId>curator-recipes</artifactId>
    <!-- 据说是最厉害的版本 -->
    <version>4.2.0</version>
</dependency>

recipesCurator 族谱大全,里面包含 Z o o k e e p e r Zookeeper Zookeeper 和 framework

1_创建客户端对象

java 复制代码
package org.example.config;

import org.apache.curator.RetryPolicy;
import org.apache.curator.framework.CuratorFramework;
import org.apache.curator.framework.CuratorFrameworkFactory;
import org.apache.curator.retry.ExponentialBackoffRetry;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

/**
 * @author shenyang
 * @version 1.0
 * @info zookeeper_lock
 * @since 2024/10/28 20:18
 */
@Configuration
public class CuratorConfig {
    private static String connection = "192.168.100.121:2181,192.168.122:2181,192.168.100.122:2181";

    @Bean
    public CuratorFramework curatorFramework() {
        // 声明重试策略 1秒1次,最多3次
        RetryPolicy retryPolicy = new ExponentialBackoffRetry(1000, 3);
        //创建 Curator 客户端
        CuratorFramework client = CuratorFrameworkFactory.newClient(connection, retryPolicy);
        client.start();
        return client;
    }
}

2_使用和测试案例

java 复制代码
import org.apache.curator.framework.CuratorFramework;
import org.apache.curator.framework.recipes.locks.InterProcessMutex;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;

import javax.annotation.Resource;

/**
 * @author shenyang
 * @version 1.0
 * @info zookeeper_lock
 * @since 2024/10/28 20:18
 */
@RestController
@RequestMapping
public class TestController {
    /**
     * 模拟资源数量
     */
    static int resources = 10;


    @Resource
    private CuratorFramework client;

    @GetMapping("test")
    public String test(@RequestParam("noId") int noId) throws Exception {
        // 1.创建内部互斥锁(此锁可重入,实现原理就是客户端自己维护了一个计数器)
        InterProcessMutex lock = new InterProcessMutex(client, "/path_" + noId);
        try {
            System.out.println("进入test方法,获取锁: " + noId + "  ing");
            // 2.加锁
            lock.acquire();
            System.out.println("资源被消耗ing" + " " + Thread.currentThread().getName() + " " + noId + " " + System.currentTimeMillis());
            Thread.sleep(10000L);
            resources--;
            System.out.println("资源数量: " + resources);
        } finally {
            // 3.解锁
            lock.release();
            System.out.println("锁被释放了 ed    " + Thread.currentThread() + " " + noId + " " + System.currentTimeMillis());
        }
        return "ok";
    }

}

快速模拟两次 HTTP 请求输出如下:

相关推荐
AKAMAI2 小时前
Queue-it 为数十亿用户增强在线体验
人工智能·云原生·云计算
在未来等你2 小时前
Kafka面试精讲 Day 13:故障检测与自动恢复
大数据·分布式·面试·kafka·消息队列
cui_win3 小时前
基于Golang + vue3 开发的 kafka 多集群管理
分布式·kafka
iiYcyk3 小时前
kafka特性和原理
分布式·kafka
AI云原生4 小时前
如何使用Docker快速运行Firefox并实现远程访问本地火狐浏览器的教程
运维·docker·云原生·容器·serverless·firefox·kubeless
在未来等你5 小时前
Kafka面试精讲 Day 15:跨数据中心复制与灾备
大数据·分布式·面试·kafka·消息队列
泡沫冰@6 小时前
K8S集群管理(3)
云原生·容器·kubernetes
Hello.Reader7 小时前
Kafka 设计与实现动机、持久化、效率、生产者/消费者、事务、复制、日志压缩与配额
分布式·kafka
LQ深蹲不写BUG8 小时前
微服务事务管理利器:Seata 核心原理与实践指南
微服务·云原生·架构
失散138 小时前
分布式专题——5 大厂Redis高并发缓存架构实战与性能优化
java·redis·分布式·缓存·架构