Kafka 单机部署启动教程(适用于 Spark + Hadoop 环境)

🧭 Kafka 单机部署启动教程(适用于 Spark + Hadoop 环境)


📦 一、Kafka 版本选择

  • 推荐使用 Kafka 2.13-2.8.1(Scala 2.13,稳定适配 Spark 3.1.2 和 Hadoop 3.1.1)

  • 下载地址(Apache 官方归档):

    bash 复制代码
    wget https://archive.apache.org/dist/kafka/2.8.1/kafka_2.13-2.8.1.tgz

🗃 二、解压并移动到安装目录

bash 复制代码
tar -zxvf kafka_2.13-2.8.1.tgz
mv kafka_2.13-2.8.1 /opt/module/kafka

⚙ 三、配置环境变量

编辑 ~/.bashrc

bash 复制代码
# Kafka
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin

使其生效:

bash 复制代码
source ~/.bashrc

📝 四、配置 Kafka 和 Zookeeper(Kafka 自带 ZK)

4.1 修改 Kafka 配置文件

bash 复制代码
vim $KAFKA_HOME/config/server.properties

重点配置如下(改为你的本机 IP):

properties 复制代码
# Kafka broker ID
broker.id=0

# 日志目录
log.dirs=/opt/module/kafka/logs

# Kafka 监听地址
listeners=PLAINTEXT://192.168.0.110:9092

# Zookeeper 地址
zookeeper.connect=localhost:2181

🚀 五、启动 Kafka 和 Zookeeper

5.1 启动 Zookeeper

bash 复制代码
zookeeper-server-start.sh -daemon $KAFKA_HOME/config/zookeeper.properties

确认启动成功:

bash 复制代码
netstat -tnlp | grep 2181

5.2 启动 Kafka Server

bash 复制代码
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

确认监听 9092 端口:

bash 复制代码
netstat -tnlp | grep 9092

🧪 六、创建和测试 Topic

bash 复制代码
# 创建 test topic
kafka-topics.sh --create --topic test --bootstrap-server 192.168.0.110:9092 --partitions 1 --replication-factor 1

# 查看已有 topic
kafka-topics.sh --list --bootstrap-server 192.168.0.110:9092

📬 七、生产者 & 消费者测试

启动生产者:

bash 复制代码
kafka-console-producer.sh --topic test --bootstrap-server 192.168.0.110:9092

输入消息:

复制代码
hello kafka

启动消费者(另开终端):

bash 复制代码
kafka-console-consumer.sh --topic test --bootstrap-server 192.168.0.110:9092 --from-beginning

看到生产者输入的消息,说明通信正常。


🛑 八、停止 Kafka 和 Zookeeper

bash 复制代码
kafka-server-stop.sh
zookeeper-server-stop.sh

🌐 九、开放防火墙端口(可选)

bash 复制代码
sudo firewall-cmd --add-port=9092/tcp --permanent
sudo firewall-cmd --add-port=2181/tcp --permanent
sudo firewall-cmd --reload

✅ 十、总结

服务 端口 启动命令
Zookeeper 2181 zookeeper-server-start.sh -daemon config/zookeeper.properties
Kafka Broker 9092 kafka-server-start.sh -daemon config/server.properties
Kafka UI 推荐后续部署 Kafka UI 如 Kafka Manager、Kowl 等
相关推荐
源码之家13 小时前
计算机毕业设计:Python智慧交通大数据分析平台 Flask框架 requests爬虫 出行速度预测 拥堵预测(建议收藏)✅
大数据·hadoop·爬虫·python·数据分析·flask·课程设计
D愿你归来仍是少年14 小时前
Apache Spark 第 9 章:Spark 性能调优
大数据·spark·apache
Hello.Reader15 小时前
Spark 4.0 新特性Python Data Source API 快速上手
python·ajax·spark
墨^O^18 小时前
并发控制策略与分布式数据重排:锁机制、Redis 分片与 Spark Shuffle 简析
java·开发语言·c++·学习·spark
Hello.Reader19 小时前
Pandas API on Spark 配置选项系统、默认索引与性能调优
大数据·spark·pandas
武子康19 小时前
大数据-257 离线数仓 - 数据质量监控详解:从理论到Apache Griffin实践
大数据·hadoop·后端
talen_hx2962 天前
《零基础入门Spark》学习笔记 Day 07
笔记·学习·spark
qq_40999093?2 天前
消息中间件:RabbitMQ、RocketMQ、Kafka快速上手
kafka·rabbitmq·rocketmq
yzx9910132 天前
实时数据处理实战:使用 Apache Flink 消费 Kafka 数据并进行窗口聚合
flink·kafka·apache