如何安装部署kafka

安装和部署Apache Kafka需要以下几个步骤,包括下载 Kafka、配置 ZooKeeper(或者使用 Kafka 自带的 Kafka Raft 模式替代 ZooKeeper),以及启动 Kafka 服务。以下是一个但基于 Linux 的典型安装流程,可以根据需要改装到其他操作系统。

1.安装的。

保证您的系统安装了以下依赖:

  • Java(Kafka依赖于Java运行环境,推荐JDK 8及以上版本)
bash 复制代码
# 检查 Java 版本
java -version

# 如果没有安装 Java,可以通过以下命令安装(适用于 Ubuntu/Debian 系统)
sudo apt update
sudo apt install default-jdk -y

2.下载并解压Kafka

  1. 访问Kafka官方下载页面选择最新的稳定版本,下载二进制包(一般使用Scala版本的Kafka)。也可以使用命令行直接下载:
bash 复制代码
# 下载 Kafka(以 Kafka 3.0.0 为例,Scala 2.13)
wget https://downloads.apache.org/kafka/3.0.0/kafka_2.13-3.0.0.tgz

# 解压 Kafka 压缩包
tar -xzf kafka_2.13-3.0.0.tgz

# 进入 Kafka 目录
cd kafka_2.13-3.0.0

3.配置ZooKeeper

在传统的 Kafka 部署中,Kafka 依赖ZooKeeper来管理集群的元数据。如果使用的是传统的 Kafka 版本,仍需安装并运行 ZooKeeper。

注意:自 Kafka 2.8 开始,Kafka 引入了 Raft 模式,可以添加 ZooKeeper。

  • 安装ZooKeeper(如果选择不使用Raft模式)

Kafka自带了一个基础的ZooKeeper配置文件,可以直接使用。

bash 复制代码
# 启动 ZooKeeper 服务(默认配置)
bin/zookeeper-server-start.sh config/zookeeper.properties

ZooKeeper默认会在2181端口上运行。

4.启动Kafka Broker

  1. Kafka的配置文件在config/server.properties中。
  2. 使用默认配置启动Kafka Broker:
bash 复制代码
# 启动 Kafka broker
bin/kafka-server-start.sh config/server.properties

默认情况下,Kafka Broker 会在9092端口上运行。

5.测试Kafka

Kafka自带了生产者和消费者的命令行工具,下面我们通过这些工具来验证 Kafka 的工作状态。

1.创建 Kafka 主题

Kafka 使用"主题"来组织消息,首先需要创建一个主题:

bash 复制代码
# 创建名为 test 的主题(默认副本数为1,分区数为1)
bin/kafka-topics.sh --create --topic test --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1

列出集群中的所有主题:

bash 复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092
2.生产消息

使用 Kafka 提供的命令行生产者工具向test主题发送消息:

bash 复制代码
# 启动生产者,向 test 主题发送消息
bin/kafka-console-producer.sh --topic test --bootstrap-server localhost:9092

输入一些消息,每条消息按行输入,按回车键后发送。

3.消费消息

使用 Kafka 的消费者工具读取test主题中的消息:

bash 复制代码
# 启动消费者,读取 test 主题的消息
bin/kafka-console-consumer.sh --topic test --from-beginning --bootstrap-server localhost:9092

消费者分区头读取所有消息,并在控制台输出。

6. Kafka 配置文件说明

Kafka 的主配置文件为config/server.properties,其中包含了 Kafka 运行时的各种参数。常用的配置项包括:

  • broker.id: 唯一标识 Kafka Broker 的 ID,在多集群集群中,每个 Broker 的 ID 都应该是唯一的。
  • listeners:Kafka Broker 监听的地址和端口,默认是localhost:9092
  • log.dirs: Kafka存储日志(即消息)的目录,默认为/tmp/kafka-logs
  • zookeeper.connect: ZooKeeper 连接字符串(在使用 ZooKeeper 模式时)。

7.关闭Kafka和ZooKeeper

完成测试后,可以关闭Kafka和ZooKeeper服务。

bash 复制代码
# 停止 Kafka 服务
bin/kafka-server-stop.sh

# 停止 ZooKeeper 服务
bin/zookeeper-server-stop.sh

8.部署多集群资源

在生产环境中,通常会部署 Kafka 的多集群集群。这涉及到:

  • 修改每个brokerbroker.id,确保唯一。
  • 修改listeners参数,确保每个经纪人都有唯一的IP地址和端口。
  • 增加 ZooKeeper 的高可用配置(或者使用 Kafka Raft 模式)。

Kafka集群部署需要配置多台服务器,将多个broker连接到相同的ZooKeeper集群。

相关推荐
processflow流程图12 分钟前
分布式kettle调度平台v6.4.0新功能介绍
分布式
全栈开发圈21 分钟前
干货分享|分布式数据科学工具 Xorbits 的使用
分布式
运维&陈同学2 小时前
【zookeeper01】消息队列与微服务之zookeeper工作原理
运维·分布式·微服务·zookeeper·云原生·架构·消息队列
时差9533 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署
菠萝咕噜肉i3 小时前
超详细:Redis分布式锁
数据库·redis·分布式·缓存·分布式锁
Mephisto.java3 小时前
【大数据学习 | Spark】Spark的改变分区的算子
大数据·elasticsearch·oracle·spark·kafka·memcache
只因在人海中多看了你一眼6 小时前
分布式缓存 + 数据存储 + 消息队列知识体系
分布式·缓存
zhixingheyi_tian9 小时前
Spark 之 Aggregate
大数据·分布式·spark
KevinAha10 小时前
Kafka 3.5 源码导读
kafka
求积分不加C10 小时前
-bash: ./kafka-topics.sh: No such file or directory--解决方案
分布式·kafka