Flink实现实时数据处理

代码如下:

python 复制代码
#!/usr/bin/python
# -*- coding: UTF-8 -*-

from pyflink.datastream import StreamExecutionEnvironment
from pyflink.table import StreamTableEnvironment, EnvironmentSettings, DataTypes

# 初始化执行环境
s_env = StreamExecutionEnvironment.get_execution_environment()
s_env.set_parallelism(4)
# 必须开启 checkpoint,时间间隔为毫秒,否则不能输出数据
s_env.enable_checkpointing(600000)  # 600000 十分钟

env_settings = EnvironmentSettings.new_instance().in_streaming_mode().build()
t_env = StreamTableEnvironment.create(s_env, environment_settings=env_settings)

# 显式注册 Kafka 连接器
t_env.get_config().get_configuration().set_string("pipeline.jars", "file:///opt/flink/lib/flink-connector-kafka-1.16.0.jar")

# 创建 source 表
t_env.execute_sql("""
CREATE TABLE source_blog_kafka (
    ip_address STRING,
    post_id INT,
    event_type STRING,
    proctime AS PROCTIME()  -- 添加处理时间列
) WITH (
    'connector' = 'kafka',
    'topic' = 'blog_views',
    'properties.bootstrap.servers' = '110.40.130.231:9092',
    'properties.group.id' = 'flink_kafka_hive_blog_consumers',
    'scan.startup.mode' = 'earliest-offset',
    'format' = 'json'
)
""")

# 创建 sink 表
t_env.execute_sql("""
CREATE TABLE sink_blog_hive (
    post_id INT,
    view_count INT
) WITH (
    'connector' = 'kafka',
    'topic' = 'blog_view_stats',
    'properties.bootstrap.servers' = '110.40.130.231:9092',
    'format' = 'json'
)
""")

# 定义 SQL 查询
t_env.execute_sql("""
INSERT INTO sink_blog_hive
SELECT post_id, CAST(COUNT(*) AS INT) AS view_count
FROM source_blog_kafka
GROUP BY post_id, TUMBLE(proctime, INTERVAL '1' MINUTE)
""")

# 启动执行环境
t_env.execute("Blog View Stats")

print("Data processing job started.")

展示了一个使用 Apache Flink 进行实时数据处理的例子,该例子从 Kafka 消费数据,对博客文章的浏览量进行统计,并将结果写回到另一个 Kafka 主题。以下是对你提供的代码的一些解释和建议:

解释

  1. 初始化执行环境

    • StreamExecutionEnvironmentStreamTableEnvironment 被用来创建流处理环境。set_parallelism(4) 设置了并行度为4,意味着任务可以在四个线程上并行执行。
    • enable_checkpointing(600000) 开启了检查点机制,确保在发生故障时能够恢复状态。这里设置的检查点间隔是十分钟。
  2. 配置 Kafka 连接器

    • 通过 pipeline.jars 参数指定了 Kafka 连接器的 JAR 文件路径,这是为了让 Flink 能够与 Kafka 集群通信。
  3. 定义 Source 和 Sink 表

    • source_blog_kafka 表用于从 Kafka 的 blog_views 主题读取数据,数据格式为 JSON。
    • sink_blog_hive 表用于将处理后的数据写入 Kafka 的 blog_view_stats 主题,同样以 JSON 格式存储。
  4. SQL 查询

    • 使用 SQL 对 source_blog_kafka 表中的数据按 post_id 分组,并计算每分钟内的点击次数,然后将结果插入到 sink_blog_hive 表中。
  5. 启动任务

    • 最后调用 t_env.execute("Blog View Stats") 启动任务执行。

建议

  • 检查点配置:确保 Kafka 连接器版本支持 Flink 的检查点功能,这对于实现精确一次(exactly-once)语义非常重要。
  • 资源管理:确保 Flink 集群有足够的资源来运行这个任务,特别是当并行度设置较高时。
  • 错误处理:考虑添加适当的错误处理逻辑,比如设置重启策略,以便在遇到失败时能够自动恢复。
  • 监控和调试:部署后,利用 Flink 提供的监控工具来跟踪作业的状态和性能,及时发现并解决问题。
相关推荐
Hello.Reader21 小时前
Flink ML 数据类型:Vector 向量类型入门(DenseVector / SparseVector)
大数据·flink
Hello.Reader2 天前
Flink ML 迭代机制详解:有界迭代 vs 无界迭代、IterationBody、Epoch 与 API 实战
人工智能·机器学习·flink
冬至喵喵2 天前
FLINK故障重启策略
大数据·python·flink
野猪佩挤2 天前
k8s+Flink断点续传(MySQL同步Starrocks)
sqlserver·flink·kubernetes
Hello.Reader2 天前
Flink Process Table Functions(PTF)实战详解:把 SQL 变成“可编程算子”,状态、时间、定时器一把梭
网络·sql·flink
Apache Flink3 天前
Flink + Fluss 实战: Delta Join 原理解析与操作指南
大数据·数据库·flink
xiaoshujiaa3 天前
微服务与大数据场景下的Java面试实录:从Spring Cloud到Flink的层层拷问
大数据·spring cloud·微服务·flink·kubernetes·java面试·resilience4j
Jackyzhe3 天前
Flink源码阅读:窗口
大数据·flink
Hello.Reader3 天前
Flink Procedures 用 SQL 的 `CALL` 跑 Flink Job(实现、类型推断、命名参数、Catalog 集成一篇搞懂)
大数据·sql·flink
Jackeyzhe3 天前
Flink源码阅读:Checkpoint机制(上)
flink