Kafka 单机部署启动教程(适用于 Spark + Hadoop 环境)

🧭 Kafka 单机部署启动教程(适用于 Spark + Hadoop 环境)


📦 一、Kafka 版本选择

  • 推荐使用 Kafka 2.13-2.8.1(Scala 2.13,稳定适配 Spark 3.1.2 和 Hadoop 3.1.1)

  • 下载地址(Apache 官方归档):

    bash 复制代码
    wget https://archive.apache.org/dist/kafka/2.8.1/kafka_2.13-2.8.1.tgz

🗃 二、解压并移动到安装目录

bash 复制代码
tar -zxvf kafka_2.13-2.8.1.tgz
mv kafka_2.13-2.8.1 /opt/module/kafka

⚙ 三、配置环境变量

编辑 ~/.bashrc

bash 复制代码
# Kafka
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin

使其生效:

bash 复制代码
source ~/.bashrc

📝 四、配置 Kafka 和 Zookeeper(Kafka 自带 ZK)

4.1 修改 Kafka 配置文件

bash 复制代码
vim $KAFKA_HOME/config/server.properties

重点配置如下(改为你的本机 IP):

properties 复制代码
# Kafka broker ID
broker.id=0

# 日志目录
log.dirs=/opt/module/kafka/logs

# Kafka 监听地址
listeners=PLAINTEXT://192.168.0.110:9092

# Zookeeper 地址
zookeeper.connect=localhost:2181

🚀 五、启动 Kafka 和 Zookeeper

5.1 启动 Zookeeper

bash 复制代码
zookeeper-server-start.sh -daemon $KAFKA_HOME/config/zookeeper.properties

确认启动成功:

bash 复制代码
netstat -tnlp | grep 2181

5.2 启动 Kafka Server

bash 复制代码
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

确认监听 9092 端口:

bash 复制代码
netstat -tnlp | grep 9092

🧪 六、创建和测试 Topic

bash 复制代码
# 创建 test topic
kafka-topics.sh --create --topic test --bootstrap-server 192.168.0.110:9092 --partitions 1 --replication-factor 1

# 查看已有 topic
kafka-topics.sh --list --bootstrap-server 192.168.0.110:9092

📬 七、生产者 & 消费者测试

启动生产者:

bash 复制代码
kafka-console-producer.sh --topic test --bootstrap-server 192.168.0.110:9092

输入消息:

复制代码
hello kafka

启动消费者(另开终端):

bash 复制代码
kafka-console-consumer.sh --topic test --bootstrap-server 192.168.0.110:9092 --from-beginning

看到生产者输入的消息,说明通信正常。


🛑 八、停止 Kafka 和 Zookeeper

bash 复制代码
kafka-server-stop.sh
zookeeper-server-stop.sh

🌐 九、开放防火墙端口(可选)

bash 复制代码
sudo firewall-cmd --add-port=9092/tcp --permanent
sudo firewall-cmd --add-port=2181/tcp --permanent
sudo firewall-cmd --reload

✅ 十、总结

服务 端口 启动命令
Zookeeper 2181 zookeeper-server-start.sh -daemon config/zookeeper.properties
Kafka Broker 9092 kafka-server-start.sh -daemon config/server.properties
Kafka UI 推荐后续部署 Kafka UI 如 Kafka Manager、Kowl 等
相关推荐
白日与明月2 分钟前
对Hive表进行归档,减少小文件的影响
数据仓库·hive·hadoop
嘉禾望岗50317 分钟前
hive窗口函数与自定义函数
数据仓库·hive·hadoop
风跟我说过她1 小时前
Hadoop HA (高可用) 配置与操作指南
大数据·hadoop·分布式·zookeeper·centos
沧澜sincerely1 小时前
WSL2搭建Hadoop伪分布式环境
大数据·hadoop·搜索引擎
还是大剑师兰特2 小时前
Kafka 面试题及详细答案100道(66-80)-- 运维与部署
分布式·kafka·大剑师·kafka面试题
whltaoin8 小时前
SpringCloud 项目阶段九:Kafka 接入实战指南 —— 从基础概念、安装配置到 Spring Boot 实战及高可用设计
spring boot·spring cloud·kafka
计算机编程小央姐8 小时前
【Spark+Hive+hadoop】基于spark+hadoop基于大数据的人口普查收入数据分析与可视化系统
大数据·hadoop·数据挖掘·数据分析·spark·课程设计
Insist75312 小时前
基于OpenEuler部署kafka消息队列
分布式·docker·kafka
励志成为糕手16 小时前
Kafka选举机制深度解析:分布式系统中的民主与效率
分布式·kafka·linq·controller·isr机制
飞鱼&18 小时前
Kafka-保证消息消费的顺序性及高可用机制
分布式·kafka