大数据技术之Zookeeper客户端 API 操作(4)

目录

[客户端 API 操作](#客户端 API 操作)

[IDEA 环境搭建](#IDEA 环境搭建)

[创建 ZooKeeper 客户端](#创建 ZooKeeper 客户端)

创建子节点

获取子节点并监听节点变化

[判断 Znode 是否存在](#判断 Znode 是否存在)

客户端向服务端写数据流程

客户端 API 操作

前提: 保证 hadoop12、hadoop13、hadoop14 服务器上的 Zookeeper 集群服务端已启动。

IDEA 环境搭建
  1. 创建一个工程 : zookeeper

  2. 添加 pom 文件

    XML 复制代码
    <dependencies>
      <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>RELEASE</version>
      </dependency>
    
      <dependency>
        <groupId>org.apache.logging.log4j</groupId>
        <artifactId>log4j-core</artifactId>
        <version>2.8.2</version>
      </dependency>
      <dependency>
        <groupId>org.apache.zookeeper</groupId>
        <artifactId>zookeeper</artifactId>
        <version>3.5.7</version>
      </dependency>
    </dependencies>
  3. 拷贝 log4j.properties 文件到项目根目录

    在项目的 src/main/resources 目录下,新建一个文件,命名为 "log4j.properties",并在文件中填入以下内容:

    XML 复制代码
    log4j.rootLogger=INFO, stdout
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
    log4j.appender.logfile=org.apache.log4j.FileAppender
    log4j.appender.logfile.File=target/spring.log
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
  4. 创建包名 : com.lzl.zk

  5. 创建类名称 : zkClient

创建 ZooKeeper 客户端
java 复制代码
// 注意:逗号前后不能有空格
private static String connectString = "hadoop12:2181,hadoop13:2181,hadoop14:2181";
private static int sessionTimeout = 2000;
private ZooKeeper zkClient = null;
​
@Before
public void init() throws Exception {
    zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
        @Override
        public void process(WatchedEvent watchedEvent) {
            // 收到事件通知后的回调函数(用户的业务逻辑)
            System.out.println(watchedEvent.getType() + "--" + watchedEvent.getPath());
            // 再次启动监听
            try {
                List<String> children = zkClient.getChildren("/", true);
                for (String child : children) {
                    System.out.println(child);
                }
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    });
}
创建子节点
java 复制代码
// 创建子节点
@Test
public void create() throws Exception {
    // 参数 1:要创建的节点的路径; 参数 2:节点数据 ; 参数 3:节点权限 ; 参数 4:节点的类型
    String nodeCreated = zkClient.create("/lzl", "shuaige".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}

// 测试:在 hadoop12 的 zk 客户端上查看创建节点情况
[zk: localhost:2181(CONNECTED) 16] get -s /lzl
shuaige
复制代码
获取子节点并监听节点变化
java 复制代码
// 获取子节点
@Test
public void getChildren() throws Exception {
    List<String> children = zkClient.getChildren("/", true);
    for (String child : children) {
        System.out.println(child);
    }
    // 延时阻塞
    Thread.sleep(Long.MAX_VALUE);
}
​
// (1)在 IDEA 控制台上看到如下节点:
// zookeeper
// sanguo
// lzl
​
// (2)在 hadoop12 的客户端上创建再创建一个节点/lzl1,观察 IDEA 控制台
// [zk: localhost:2181(CONNECTED) 3] create /lzl1 "lzl1"
​
// (3)在 hadoop12 的客户端上删除节点/lzl1,观察 IDEA 控制台
// [zk: localhost:2181(CONNECTED) 4] delete /lzl1
判断 Znode 是否存在
java 复制代码
// 判断 znode 是否存在
@Test
public void exist() throws Exception {
    Stat stat = zkClient.exists("/lzl", false);
    System.out.println(stat == null ? "not exist" : "exist");
}
客户端向服务端写数据流程

写流程之写入请求直接发送给 Leader 节点

java 复制代码
Client       ZK Server          Follower           ZK Server          Follower
write        |                   |                   |                   |
             |                   |                   |                   |
             |--------- write -->|                   |                   |
             |                   |                   |                   |
             |                   |--------- ack ---->|                   |
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |--------- write -->|
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|

写流程之写入请求发送给 follower 节点

java 复制代码
Client       ZK Server          Follower           ZK Server          Follower
write        |                   |                   |                   |
             |                   |                   |                   |
             |                   |--------- write -->|                   |
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|
             |                   |                   |                   |
             |                   |                   |--------- write -->|
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|
             |                   |                   |                   |
             |                   |                   |--------- ack ---->|
相关推荐
BYSJMG6 分钟前
计算机毕业设计选题:基于Spark+Hadoop的健康饮食营养数据分析系统【源码+文档+调试】
大数据·vue.js·hadoop·分布式·spark·django·课程设计
JAVA学习通10 分钟前
【RabbitMQ】----RabbitMQ 的7种工作模式
分布式·rabbitmq
YangYang9YangYan33 分钟前
2025年金融专业人士职业认证发展路径分析
大数据·人工智能·金融
AIbase202434 分钟前
GEO优化服务:技术演进如何重塑搜索优化行业新范式
大数据·人工智能
励志成为糕手1 小时前
Hadoop进程:深入理解分布式计算引擎的核心机制
大数据·hadoop·分布式·mapreduce·yarn
武子康1 小时前
大数据-92 Spark 深入解析 Spark Standalone 模式:组件构成、提交流程与性能优化
大数据·后端·spark
掘金-我是哪吒1 小时前
分布式微服务系统架构第170集:Kafka消费者并发-多节点消费-可扩展性
分布式·微服务·架构·kafka·系统架构
何双新2 小时前
第 3 讲:KAFKA生产者(Producer)详解
分布式·kafka·linq
像豆芽一样优秀2 小时前
Hive和Flink数据倾斜问题
大数据·数据仓库·hive·hadoop·flink
Heliotrope_Sun2 小时前
RabbitMQ
分布式·rabbitmq