Kafka集群搭建

Kafka集群搭建

  1. 将master节点的/data目录下的Kafka安装包解压到/opt/software目录下

    shell 复制代码
    tar -zxvf kafka_2.12-2.4.1.tgz -C /opt/software/
    mv kafka_2.12-2.4.1 kafka
  2. 进入Kafka安装目录的config目录修改server.properties配置文件,将"broker.id"改为"0","log.dirs"改为"/opt/logs/kafka-logs","zookeeper.connect"改为"master:2181,slave1:2181,slave2:2181"

    shell 复制代码
    cd /opt/software/kafka/config
    参数名 参数值
    broker.id 0
    log.dirs /opt/logs/kafka-logs
    zookeeper.connect master:2181,slave1:2181,slave2:2181
    参数名 参数值
    broker.id 1
    log.dirs /opt/logs/kafka-logs
    zookeeper.connect master:2181,slave1:2181,slave2:2181
    参数名 参数值
    broker.id 2
    log.dirs /opt/logs/kafka-logs
    zookeeper.connect master:2181,slave1:2181,slave2:2181
  3. 将master节点配置好的Kafka文件远程发送至slave1、slave2节点相同目录下,并将slave1、slave2节点的server.properties配置文件中的broker.id分别修改为1、2。

    shell 复制代码
    scp -r kafka slave1:$pwd
    scp -r kafka slave2:$pwd
  4. 在master节点的/etc/profile文件中配置Kafka环境变量KAFKA_HOME和PATH的值,并使配置文件立即生效。再将master节点配置好的/etc/profile文件远程发送至slave1、slave2节点,同样使配置文件立即生效

    shell 复制代码
    vi /etc/profile
    
    export KAFKA_HOME=/root/software/kafka
    export PATH=$PATH:$KAFKA/bin
    
    scoure /etc/profile
    
    scp /etc/profile slave1:/etc/
    scp /etc/profile slave2:/etc/
  5. 分别在各节点启动ZooKeeper集群,确保ZooKeeper集群启动后再在各节点启动Kafka集群,并查看各节点进程

    复制代码
相关推荐
riveting31 分钟前
SD2351核心板:重构AI视觉产业价值链的“超级节点”
大数据·linux·图像处理·人工智能·重构·智能硬件
欧先生^_^2 小时前
Spark 的一些典型应用场景及具体示例
大数据·分布式·spark
八股文领域大手子3 小时前
如何给GitHub项目提PR(踩坑记录
大数据·elasticsearch·github
爱吃龙利鱼3 小时前
elk中kibana一直处于可用和降级之间且es群集状态并没有问题的解决方法
大数据·elk·elasticsearch
腾讯云大数据3 小时前
腾讯云ES一站式RAG方案获信通院“开源大模型+软件创新应用”精选案例奖
大数据·elasticsearch·开源·云计算·腾讯云
苍煜3 小时前
Elasticsearch(ES)中的脚本(Script)
大数据·elasticsearch·搜索引擎
Hello kele3 小时前
解构与重构:“整体部分”视角下的软件开发思维范式
大数据·经验分享·程序员·重构·项目管理·人月神话·沟通困局
Elastic 中国社区官方博客4 小时前
使用 LangGraph 和 Elasticsearch 构建强大的 RAG 工作流
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
别这么骄傲4 小时前
Flink概念-状态一致性的三种级别
大数据·flink
和算法死磕到底4 小时前
ubantu18.04(Hadoop3.1.3)之Spark安装和编程实践
大数据·hadoop·pycharm·spark