Flink订阅Kafka消息队列实战案例

1、Kafka介绍

Kafka是一款开源的分布式消息系统,最初由LinkedIn公司开发并开源。它被设计用于处理海量的实时数据流,可以支持高吞吐量和低延迟的数据传输。

Kafka的设计主要目标是提供一个持久化的、高吞吐量的、可扩展的、分布式发布/订阅消息系统,以解决实时数据处理的需求。它基于发布/订阅模型,通过将消息发布到主题(Topic)并让订阅者订阅相关主题,实现了消息的生产者和消费者之间的解耦。

Kafka的架构和设计思想非常灵活,主要由以下几个核心组件组成:

Producer(生产者): 负责将消息发布到Kafka集群中的指定主题。

Consumer(消费者): 订阅并消费特定主题的消息。

Topic(主题): 消息的类别或者主题分类,消息被发布到特定的主题,消费者可以订阅感兴趣的主题。

Broker(代理): Kafka集群中的服务器节点,负责消息的存储和转发。

Partition(分区): 每个主题可以分为多个分区,每个分区都是有序且持久化的消息记录队列。

Producer API(生产者API)和Consumer API(消费者API): 提供了丰富的编程接口,方便开发者在应用程序中集成Kafka。

Kafka的特点包括:

高性能:Kafka可以支持每秒数十万条消息的高吞吐量处理。

可扩展性:Kafka的持久化消息存储和分区机制可以方便地进行水平扩展。

容错性:Kafka具备良好的容错机制,即使在某个节点故障的情况下,仍然可以保证消息的可靠传输。

消息保留:Kafka可以根据配置保留消息的时间或大小限制。

多语言支持:Kafka提供了多种编程语言的客户端,方便开发者使用不同语言来集成和使用Kafka。

Kafka广泛应用于各种领域,特别是大数据处理、实时流处理和日志收集等场景。

2、Flink介绍

Flink(Apache Flink)是一种开源的流处理和批处理框架,它提供了可靠、高性能、可伸缩的大数据处理能力。Flink最初由德国柏林工业大学(Berlin TU)的一个研究小组开发,并于2014年成为Apache软件基金会的顶级项目。

Flink的设计目标是实时流处理和批处理的无缝融合,它提供了统一的数据处理模型,使得开发人员可以方便地编写和运行具有低延迟和高吞吐量需求的大规模数据处理应用。

Flink的核心概念是流(Stream)和转换(Transformation)。应用程序通过定义数据流(DataStream)来描述输入数据和计算过程,并且可以应用各种转换操作(如过滤、转换、合并等)对数据流进行操作和处理。Flink提供了丰富的转换函数和算子,可以轻松地实现各种复杂的数据处理逻辑。

Flink具有以下特点:

低延迟和高吞吐量:Flink采用了基于内存的流式计算模型,能够实现毫秒级的实时响应。

Exactly-Once语义:Flink可以确保数据处理的精确一次性,即数据不会丢失也不会重复处理。

可容错性:Flink通过在集群中保存数据的一致性检查点(Checkpoint)来提供故障恢复和容错处理能力。

状态管理:Flink能够在处理过程中维护和管理状态,这对于处理窗口操作和流-流连接等场景非常重要。

可伸缩性:Flink可以方便地进行水平扩展,支持集群模式和分布式部署。

支持大规模数据处理:Flink可以处理海量数据,适用于大数据和实时流处理等场景。

Flink在实时流处理、批处理、连续查询、机器学习和图分析等领域得到了广泛应用。它提供了易于使用的API和丰富的生态系统,可以与主流的大数据存储和计算平台(如Hadoop、Kafka、Cassandra等)进行无缝集成,为用户提供了强大的数据处理能力和灵活性。

3、Flink订阅Kafka消息实战代码

scala 复制代码
import java.util.Properties

// 配置Kafka的属性
val properties: Properties = new Properties
// 设置服务
properties.setProperty("bootstrap.servers", "bigdata_server1:9092,bigdata_server2:9092,bigdata_server3:9092")
// 设置消费者组
properties.setProperty("group.id", "test_group")
// kafka反序列化消息是在消费端
properties.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
// 由于网络传输过来的是byte[],只有反序列化后才能得到生产者发送的真实的消息内容。
// 属性key.deserializer和value.deserializer就是key和value指定的反序列化方式
properties.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
// 指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下改如何处理。
properties.setProperty("auto.offset.reset", "latest")
scala 复制代码
import main.flink.com.bg.Config.Config
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.node.ObjectNode
import org.apache.flink.streaming.api.datastream.DataStream
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer
import org.apache.flink.streaming.util.serialization.JSONKeyValueDeserializationSchema

val env: StreamExecutionEnvironment    // Flink执行环境
val topic : String                     // 话题

// 创建一个消费者,读取指定topic话题的消息
val consumer = new FlinkKafkaConsumer(
    topic,                                         // Kafka话题
    new JSONKeyValueDeserializationSchema(true),
    Config.getKafkaProperties()                   // Kafka配置,类型
)

// 将Kafka消费者添加到输入源
val stream = env.addSource(consumer)  // 返回DataStream[ObjectNode]类型
// 打印并执行消息
stream.print()
env.execute("flink kafka demo")
相关推荐
Hello.Reader11 小时前
Flink ML MinMaxScaler 把特征缩放到统一区间 [min, max]
大数据·人工智能·flink
许泽宇的技术分享11 小时前
2025年度技术之旅:在AI浪潮下的个人突破、持续创作与平衡之道
大数据·人工智能
Sui_Network11 小时前
智能体支付时代:Sui 为 AI 构建可验证的金融基础设施
大数据·人工智能·游戏·金融·rpc·区块链·量子计算
GEO AI搜索优化助手12 小时前
生成式AI搜索的跨行业革命与商业模式重构
大数据·人工智能·搜索引擎·重构·生成式引擎优化·ai优化·geo搜索优化
武子康12 小时前
大数据-198 KNN 必须先归一化:Min-Max 正确姿势、数据泄露陷阱与 sklearn 落地
大数据·后端·机器学习
递归尽头是星辰12 小时前
Elasticsearch实战:检索优化、聚合分析与架构落地体系化
大数据·elasticsearch·架构·检索优化·聚合分析
Dxy123931021612 小时前
Elasticsearch 8.13.4 动态同义词实战全解析
大数据·elasticsearch
芝麻开门-新起点12 小时前
第24章-WebGIS发布与在线分析
大数据
qq_124987075312 小时前
基于微信小程序的科技助农系统的设计与实现(源码+论文+部署+安装)
java·大数据·spring boot·后端·科技·微信小程序·毕业设计
GIS工具-gistools202113 小时前
台湾加油站分布地图数据
大数据·gis·加油站