kafka设置数据压缩的方式及作用

Kafka配置文档

kafka设置数据压缩的方式及作用

Apache Kafka 是一个分布式流处理平台,它被广泛用于构建实时数据管道和流式应用程序。Kafka 提供了多种方式来存储和管理数据,其中包括数据压缩。数据压缩在 Kafka 中主要有以下几个作用和设置方式:

1. 作用

减少存储空间需求‌:压缩可以显著减少存储在磁盘上的数据量,从而节省存储成本。

减少网络传输带宽‌:在网络传输数据时,压缩可以减少数据的体积,降低网络传输的成本和延迟。

提高数据处理的效率‌:压缩后的数据在处理时可以更快地被读取和写入,尤其是在处理大量数据时,可以提升整体性能。

2. 设置方式

在 Kafka 中,可以通过配置 compression.type 属性来设置生产者和消费者使用的压缩方式。这个属性可以在 broker 级别、topic 级别或者生产者/消费者客户端级别进行配置。

a. 在 Broker 级别配置

在 Kafka 的 server.properties 文件中,可以设置全局默认的压缩类型:

bash 复制代码
# [uncompressed, zstd, lz4, snappy, gzip, producer]
compression.type=producer

这里 producer 表示使用生产者设置的压缩类型。如果不设置,默认为 producer

如果这在broker直接指定压缩算法(zstd、lz4、snappy、gzip),那么不管生产者是否设置压缩服务端的该broker都会将数据压缩后存储。

说明:Broker指 Kafka 集群中的一个节点(或服务器

b. 在 Topic 级别配置

在创建 topic 时,可以使用 kafka-topics.sh 脚本的 --config 选项来设置特定的压缩类型:

bash 复制代码
kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic my-topic --config compression.type=gzip

如果这在topic直接指定压缩算法(zstd、lz4、snappy、gzip),那么不管生产者是否设置压缩服务端都会将数据压缩后存储。

说明:Topic级别配置指Kafka集群中的所有节点都采用该配置。

c. 在生产者/消费者客户端配置

在生产者或消费者的配置中,可以直接设置 compression.type 属性:

java 复制代码
Properties props = new Properties(); 
props.put("bootstrap.servers", "localhost:9092"); 
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); 
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); 
props.put("compression.type", "gzip"); // 设置压缩类型为 gzip

3. 支持的压缩类型

Kafka 支持多种压缩算法,包括:

  • gzip‌:使用 gzip 算法进行压缩。
  • snappy‌:使用 Snappy 算法进行压缩,通常比 gzip 快,但压缩率略低。
  • lz4‌:使用 LZ4 算法进行压缩,通常提供良好的压缩速度和压缩率。
  • zstd‌:使用 Zstandard (zstd) 算法进行压缩,提供更高的压缩率但可能在某些情况下牺牲速度。

4. 选择合适的压缩方式

选择哪种压缩方式取决于具体的应用场景。例如,如果你对延迟敏感,可能会选择 snappylz4;如果对压缩率有较高要求,可能会选择 gzipzstd。在实际部署前,建议根据数据特性和性能需求进行测试,以确定最合适的压缩方式。

通过合理配置和使用数据压缩,可以优化 Kafka 的存储效率和网络传输效率,从而提升整体性能和降低成本。

附件一:图表总结

附件二:kafka常用命令

Kafka的常用命令主要涵盖服务管理、Topic管理、消息生产与消费、消费者组管理以及偏移量查询等操作。

服务管理

  1. 启动服务 ‌:使用 kafka-server-start.sh 脚本,通常需要指定配置文件。
    • 前台启动:bin/kafka-server-start.sh config/server.properties‌‌
    • 后台启动:bin/kafka-server-start.sh -daemon config/server.properties
    • Kraft模式启动:bin/kafka-server-start.sh config/kraft/server.properties‌‌
  2. 停止服务 ‌:使用 kafka-server-stop.sh 脚本。‌‌‌‌

Topic管理

  1. 创建Topic ‌:使用 kafka-topics.sh 脚本,需指定Zookeeper连接、Topic名称、分区数和副本因子。
    • 示例:bin/kafka-topics.sh --create --zookeeper localhost:2181 --topic test --partitions 3 --replication-factor 1‌‌
  2. 查看Topic列表 ‌:bin/kafka-topics.sh --list --zookeeper localhost:2181‌‌‌‌1
  3. 查看Topic详情 ‌:bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test‌‌‌‌
    • 可使用 --unavailable-partitions--under-replicated-partitions 参数检查问题分区。‌‌
  4. 修改Topic分区数(仅可增加) ‌:bin/kafka-topics.sh --alter --zookeeper localhost:2181 --topic test --partitions 5‌‌‌‌
  5. 删除Topic ‌:bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test‌‌‌‌

生产与消费

  1. 发送消息(生产者) ‌:使用 kafka-console-producer.sh 脚本,需指定Broker列表和Topic名称。
    • 示例:bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test‌‌‌‌
  2. 消费消息(消费者) ‌:使用 kafka-console-consumer.sh 脚本,需指定Bootstrap Server和Topic名称。
    • 从头开始消费:bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning‌‌‌‌
    • 从最新位置消费:不加 --from-beginning 参数。‌‌
    • 可指定消费者组、分区、偏移量或最大消息数等参数进行更精细控制。‌‌
相关推荐
予枫的编程笔记2 小时前
【Kafka进阶篇】深入Kafka内部:日志存储的设计思路,藏着中间件高性能的真相
kafka·消息中间件·分布式系统·kafka底层原理·kafka日志存储·kafka索引机制·java中间件
百锦再15 小时前
Java中的反射机制详解:从原理到实践的全面剖析
java·开发语言·jvm·spring boot·struts·spring cloud·kafka
没有bug.的程序员16 小时前
Gradle 构建优化深度探秘:从 Java 核心到底层 Android 物理性能压榨实战指南
android·java·开发语言·分布式·缓存·gradle
文艺倾年16 小时前
【强化学习&SWE】如何无容器化进行强化学习训练
人工智能·分布式·大模型
代码的知行者20 小时前
分布式任务调度系列 - PowerJob
分布式
无心水1 天前
【任务调度:数据库锁 + 线程池实战】4、架构实战:用线程池 + SKIP LOCKED 构建高可用分布式调度引擎
人工智能·分布式·后端·spring·架构
Coder_Boy_1 天前
Java高级_资深_架构岗 核心知识点(模块三:高并发)
java·spring boot·分布式·面试·架构
每天要多喝水1 天前
zookeeper 的使用
分布式·zookeeper·云原生
十月南城1 天前
Kafka生态深化——Schema与Connect、CDC入湖的链路与一致性挑战
分布式·kafka