数据湖仓一体(二) 安装kafka

上传安装包到/opt/software目录并解压

bash 复制代码
[bigdata@node106 software]$ tar -zxvf kafka_2.12-3.5.2.tgz  -C /opt/services/ 

重命名kafka

bash 复制代码
[bigdata@node106 software]$ mv kafka_2.12-3.5.2 kafka_3.5.2 

配置环境变量

bash 复制代码
[bigdata@node106 ~]$ sudo vim /etc/profile.d/bigdata_env.sh
bash 复制代码
export KAFKA_HOME=/opt/services/kafka_3.5.2
export PATH=$PATH:$JAVA_HOME/bin:$ZK_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$KAFKA_HOME/bin

分发环境变量

bash 复制代码
[bigdata@node106 ~]$ sudo ./bin/xsync /etc/profile.d/bigdata_env.sh

刷新环境变量,5台机器上执行

bash 复制代码
[bigdata@node106 ~]$ source /etc/profile

修改配置文件

bash 复制代码
[bigdata@node106 ~]$ sudo vim /opt/services/kafka_3.5.2/config/server.properties 
bash 复制代码
broker.id=0
log.dirs=/opt/services/kafka_3.5.2/datas
zookeeper.connect=node106:2181,node107:2181,node108:2181/kafka

copy到其他节点

bash 复制代码
[bigdata@node107 ~]$ scp -r bigdata@node106: /opt/services/kafka_3.5.2/ /opt/services/kafka_3.5.2/                  
[bigdata@node108 ~]$ scp -r bigdata@node106: /opt/services/kafka_3.5.2/ /opt/services/kafka_3.5.2/  

修改配置文件

node107上修改broker.id=1

node108上修改broker.id=2

编写kafka.sh启动停止脚本

bash 复制代码
#!/bin/bash

if [ $# -lt 1 ]
then
    echo "No Args Input...[start,stop]"
    exit ;
fi
case $1 in
"start")
        echo " =================== 启动 kafka集群 ==================="

        echo " --------------- 启动 node106 ---------------"
        ssh node106 "$KAFKA_HOME/bin/kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties"
        echo " --------------- 启动 node107---------------"
        ssh node107 "$KAFKA_HOME/bin/kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties"
        echo " --------------- 启动 node108 ---------------"
        ssh node108 "$KAFKA_HOME/bin/kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties"
;;
"stop")
        echo " =================== 关闭 kafka集群 ==================="
        echo " --------------- 关闭 node106 ---------------"
        ssh node106 "$KAFKA_HOME/bin/kafka-server-stop.sh"
        echo " --------------- 关闭 node107---------------"
        ssh node107 "$KAFKA_HOME/bin/kafka-server-stop.sh"
        echo " --------------- 关闭 node108 ---------------"
        ssh node108 "$KAFKA_HOME/bin/kafka-server-stop.sh"
;;
*)
    echo "Input Args Error...[start,stop]"
;;
esac

授权

bash 复制代码
[bigdata@node106 bin]$ chmod +x kafka.sh

分发到其他机器

bash 复制代码
[bigdata@node106 bin]$ xsync  kafka.sh 

启动kafka

bash 复制代码
[bigdata@node106 bin]$ kafka.sh start
相关推荐
得物技术24 分钟前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟5 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人5 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法