【Kafka基础】Kafka 2.8以下版本的安装与配置指南:传统ZooKeeper依赖版详解

对于仍在使用Kafka 2.8之前版本的团队来说,需要特别注意其强依赖外部ZooKeeper的特性。本文将完整演示传统架构下的安装流程,并对比新旧版本差异。

1 版本特性差异说明

1.1 2.8+ vs 2.8-核心区别

|--------|-------------|-------------------|
| 特性 | 2.8+版本 | 2.8-版本 |
| 协调服务 | 可选内置KRaft模式 | 强制依赖外部ZooKeeper集群 |
| 部署复杂度 | 单进程即可运行 | 需独立维护ZK集群 |
| 元数据性能 | 吞吐提升20%+ | 受ZK性能制约 |
| 推荐生产版本 | ≥3.0 | ≤2.7.x |

2 安装准备(以2.7.1为例)

2.1 组件下载

Kafka下载地址:Index of /dist/kafka/2.7.1

Zookeeper下载地址:Index of /dist/zookeeper

2.2. 解压安装包以及目录结构

复制代码
# 解压kafka安装包
tar -zxvf kafka_2.13-2.7.1.tgz -C kafka_zk/
# 解压zk安装包
tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz -C kafka_zk/

# 目录结构
[root@node5 kafka_zk]# tree -L 2
.
├── apache-zookeeper-3.6.3-bin
│   ├── bin
│   ├── conf
│   ├── data
│   ├── docs
│   ├── lib
│   ├── LICENSE.txt
│   ├── logs
│   ├── NOTICE.txt
│   ├── README.md
│   └── README_packaging.md
└── kafka_2.13-2.7.1
    ├── bin
    ├── config
    ├── libs
    ├── LICENSE
    ├── licenses
    ├── logs
    ├── NOTICE
    └── site-docs

14 directories, 6 files
[root@node5 kafka_zk]# 

# 各个目录用途解释
.
├── apache-zookeeper-3.6.3-bin          # ZooKeeper 安装目录
│   ├── bin                             # ZooKeeper 可执行脚本(启动/停止/运维)
│   ├── conf                            # ZooKeeper 配置文件(zoo.cfg 等)
│   ├── data                            # ZooKeeper 数据存储目录(手动创建)
│   ├── docs                            # ZooKeeper 官方文档
│   ├── lib                             # ZooKeeper 运行时依赖库(JAR 文件)
│   ├── LICENSE.txt                     # Apache 2.0 许可证文件
│   ├── logs                            # ZooKeeper 运行日志(自动生成)
│   ├── NOTICE.txt                      # 第三方组件版权声明
│   ├── README.md                       # 项目说明文件
│   └── README_packaging.md             # 打包说明文件
└── kafka_2.13-2.7.1                    # Kafka 安装目录
    ├── bin                             # Kafka 管理脚本(启动/主题操作等)
    ├── config                          # Kafka 配置文件(server.properties 等)
    ├── libs                            # Kafka 依赖库(核心 JAR 文件)
    ├── LICENSE                         # Apache 2.0 许可证文件
    ├── licenses                        # 第三方依赖的许可证文件
    ├── logs                            # Kafka 运行日志(需手动创建或自动生成)
    ├── NOTICE                          # 项目版权声明
    └── site-docs                       # Kafka 离线文档(HTML 格式)

3 ZooKeeper独立部署

3.1 编辑配置文件

复制代码
# 编辑conf/zoo.cfg:备份conf/zoo.cfg文件并添加如下内容
cp conf/zoo.cfg conf/zoo.cfg_bak
cat >conf/zoo.cfg<<EOF
# ZooKeeper 基础配置
tickTime=2000
initLimit=10
syncLimit=5

# 数据存储目录(需提前创建并赋予权限)
dataDir=/export/home/kafka_zk/apache-zookeeper-3.6.3-bin/data
dataLogDir=/export/home/kafka_zk/apache-zookeeper-3.6.3-bin/logs

# 客户端连接端口
clientPort=2181

# 单机模式无需集群配置
# server.1=ip:port:port (集群模式下需配置)

# 高级优化(可选)
maxClientCnxns=60
autopurge.snapRetainCount=3
autopurge.purgeInterval=24
admin.serverPort=8080
maxClientCnxns=60
EOF

3.2 启动与验证

复制代码
# 启动ZK(后台模式)
bin/zkServer.sh start conf/zoo.cfg

# 验证状态
echo srvr | nc 192.168.10.34 2181

[root@node5 apache-zookeeper-3.6.3-bin]# echo srvr | nc 192.168.10.34 2181
Zookeeper version: 3.6.3--6401e4ad2087061bc6b9f80dec2d69f2e3c8660a, built on 04/08/2021 16:35 GMT
Latency min/avg/max: 0/0.0/0
Received: 3
Sent: 2
Connections: 1
Outstanding: 0
Zxid: 0x0
Mode: standalone
Node count: 5
[root@node5 apache-zookeeper-3.6.3-bin]# 

4 Kafka服务配置

4.1 编辑配置文件

复制代码
# 编辑config/server.properties文件:备份文件并添加如下内容
cp config/server.properties config/server.properties_bak
cat >config/server.properties<<EOF
############################ 基础配置 #############################
# Broker唯一标识(单机保持默认)
broker.id=0

# 监听地址(必须配置为实际IP或主机名,不能用0.0.0.0)
listeners=PLAINTEXT://192.168.10.34:9092
advertised.listeners=PLAINTEXT://192.168.10.34:9092

# 日志存储目录(需提前创建并赋权)
log.dirs=/export/home/kafka_zk/kafka_2.13-2.7.1/logs

# ZooKeeper连接地址(单机模式)
zookeeper.connect=192.168.10.34:2181


############################# 单机特殊配置 #############################
# 强制内部Topic副本数为1(单机必须配置!)
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1

# 禁用自动创建Topic(生产环境建议)
auto.create.topics.enable=false


############################# 性能优化 #############################
# 网络线程数(建议CPU核数)
num.network.threads=2

# IO线程数(建议2*CPU核数)
num.io.threads=4

# 日志保留策略
log.retention.hours=168      # 保留7天
log.segment.bytes=1073741824 # 单个日志段1GB
log.retention.check.interval.ms=300000 # 检查间隔5分钟

# 消息持久化
flush.messages=10000         # 每10000条消息刷盘
flush.ms=1000                # 每秒刷盘一次

############################# 高级调优 #############################
# Socket缓冲区大小
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400

# 副本同步设置(单机可忽略)
default.replication.factor=1
min.insync.replicas=1

# 控制器配置
controller.socket.timeout.ms=30000
EOF

4.2 编写启动脚本

复制代码
# 创建bin/start-kafka.sh避免内存不足
#!/bin/bash
export KAFKA_HEAP_OPTS="-Xms1G -Xmx1G"
export JMX_PORT=9999
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-server-start.sh /export/home/kafka_zk/kafka_2.13-2.7.1/config/server.properties

chmod +x bin/start-kafka.sh

4.3 启动服务并验证

复制代码
# 启动 
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/start-kafka.sh

# 创建topic并查看详情
# 创建名为test的Topic,1分区1副本
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --create \
  --bootstrap-server 192.168.10.34:9092 \
  --replication-factor 1 \
  --partitions 1 \
  --topic test
  
[root@node5 ~]# /export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --create \
>   --bootstrap-server 192.168.10.34:9092 \
>   --replication-factor 1 \
>   --partitions 1 \
>   --topic test
Created topic test.
[root@node5 ~]# 

# 查看Topic详情
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --describe --topic test --bootstrap-server 192.168.10.34:9092

[root@node5 ~]# /export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --describe --topic test --bootstrap-server 192.168.10.34:9092

Topic: test     PartitionCount: 1       ReplicationFactor: 1    Configs: min.insync.replicas=1,segment.bytes=1073741824
        Topic: test     Partition: 0    Leader: 0       Replicas: 0     Isr: 0
[root@node5 ~]# 

5 版本特定问题解决

5.1 ZooKeeper连接超时

现象:Session expired错误

复制代码
# 增加server.properties参数 
zookeeper.session.timeout.ms=18000 
zookeeper.connection.timeout.ms=15000

5.2. 磁盘写性能低下

复制代码
# 禁用完全刷盘(牺牲部分可靠性) 
log.flush.interval.messages=10000 
log.flush.interval.ms=1000

5.3 监控指标缺失

复制代码
# 启用JMX导出
KAFKA_JMX_OPTS="-Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=9999"
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-server-start.sh /export/home/kafka_zk/kafka_2.13-2.7.1/bin/server.properties
相关推荐
杭州杭州杭州10 小时前
ubuntu 18.04安装tomcat,zookeeper,kafka,hadoop,MySQL,maxwell
hadoop·mysql·ubuntu·zookeeper·kafka·tomcat
精神内耗中的钙奶饼干12 小时前
Springboot整合kafka记录
后端·kafka
liyongjun631620 小时前
Zookeeper 命令返回数据的含义
linux·服务器·zookeeper
努力的搬砖人.21 小时前
Spring Boot整合Kafka的详细步骤
spring boot·后端·kafka
可乐仙人1 天前
常见MQ及类MQ对比:Redis Stream、Redis Pub/Sub、RocketMQ、Kafka 和 RabbitMQ
redis·kafka·rocketmq
光亮的程序猿1 天前
confluent-kafka入门教程
python·kafka
精神内耗中的钙奶饼干2 天前
Windows 系统搭建Kafka集群记录
后端·kafka
可观测性用观测云2 天前
Zookeeper 可观测性最佳实践
zookeeper
架构文摘JGWZ2 天前
Apache Kafka UI :一款功能丰富且美观的 Kafka 开源管理平台!!
ui·kafka·开源·apache·工具
精神内耗中的钙奶饼干2 天前
Windows 系统上安装和使用 Apache Kafka记录
大数据·kafka