Flink实现实时数据处理

代码如下:

python 复制代码
#!/usr/bin/python
# -*- coding: UTF-8 -*-

from pyflink.datastream import StreamExecutionEnvironment
from pyflink.table import StreamTableEnvironment, EnvironmentSettings, DataTypes

# 初始化执行环境
s_env = StreamExecutionEnvironment.get_execution_environment()
s_env.set_parallelism(4)
# 必须开启 checkpoint,时间间隔为毫秒,否则不能输出数据
s_env.enable_checkpointing(600000)  # 600000 十分钟

env_settings = EnvironmentSettings.new_instance().in_streaming_mode().build()
t_env = StreamTableEnvironment.create(s_env, environment_settings=env_settings)

# 显式注册 Kafka 连接器
t_env.get_config().get_configuration().set_string("pipeline.jars", "file:///opt/flink/lib/flink-connector-kafka-1.16.0.jar")

# 创建 source 表
t_env.execute_sql("""
CREATE TABLE source_blog_kafka (
    ip_address STRING,
    post_id INT,
    event_type STRING,
    proctime AS PROCTIME()  -- 添加处理时间列
) WITH (
    'connector' = 'kafka',
    'topic' = 'blog_views',
    'properties.bootstrap.servers' = '110.40.130.231:9092',
    'properties.group.id' = 'flink_kafka_hive_blog_consumers',
    'scan.startup.mode' = 'earliest-offset',
    'format' = 'json'
)
""")

# 创建 sink 表
t_env.execute_sql("""
CREATE TABLE sink_blog_hive (
    post_id INT,
    view_count INT
) WITH (
    'connector' = 'kafka',
    'topic' = 'blog_view_stats',
    'properties.bootstrap.servers' = '110.40.130.231:9092',
    'format' = 'json'
)
""")

# 定义 SQL 查询
t_env.execute_sql("""
INSERT INTO sink_blog_hive
SELECT post_id, CAST(COUNT(*) AS INT) AS view_count
FROM source_blog_kafka
GROUP BY post_id, TUMBLE(proctime, INTERVAL '1' MINUTE)
""")

# 启动执行环境
t_env.execute("Blog View Stats")

print("Data processing job started.")

展示了一个使用 Apache Flink 进行实时数据处理的例子,该例子从 Kafka 消费数据,对博客文章的浏览量进行统计,并将结果写回到另一个 Kafka 主题。以下是对你提供的代码的一些解释和建议:

解释

  1. 初始化执行环境

    • StreamExecutionEnvironmentStreamTableEnvironment 被用来创建流处理环境。set_parallelism(4) 设置了并行度为4,意味着任务可以在四个线程上并行执行。
    • enable_checkpointing(600000) 开启了检查点机制,确保在发生故障时能够恢复状态。这里设置的检查点间隔是十分钟。
  2. 配置 Kafka 连接器

    • 通过 pipeline.jars 参数指定了 Kafka 连接器的 JAR 文件路径,这是为了让 Flink 能够与 Kafka 集群通信。
  3. 定义 Source 和 Sink 表

    • source_blog_kafka 表用于从 Kafka 的 blog_views 主题读取数据,数据格式为 JSON。
    • sink_blog_hive 表用于将处理后的数据写入 Kafka 的 blog_view_stats 主题,同样以 JSON 格式存储。
  4. SQL 查询

    • 使用 SQL 对 source_blog_kafka 表中的数据按 post_id 分组,并计算每分钟内的点击次数,然后将结果插入到 sink_blog_hive 表中。
  5. 启动任务

    • 最后调用 t_env.execute("Blog View Stats") 启动任务执行。

建议

  • 检查点配置:确保 Kafka 连接器版本支持 Flink 的检查点功能,这对于实现精确一次(exactly-once)语义非常重要。
  • 资源管理:确保 Flink 集群有足够的资源来运行这个任务,特别是当并行度设置较高时。
  • 错误处理:考虑添加适当的错误处理逻辑,比如设置重启策略,以便在遇到失败时能够自动恢复。
  • 监控和调试:部署后,利用 Flink 提供的监控工具来跟踪作业的状态和性能,及时发现并解决问题。
相关推荐
我的K84093 小时前
Flink整合Hive、Mysql、Hbase、Kafka
hive·mysql·flink
宝哥大数据19 小时前
Flink Job更新和恢复
大数据·flink
LiWang1123582 天前
FlinkPipelineComposer 详解
flink
Denny辉2 天前
Flink使用SQL Gateway提交SQL Job到远程集群
sql·flink·gateway
武子康2 天前
大数据-218 Prometheus 插件 exporter 与 pushgateway 配置使用 监控服务 使用场景
大数据·hive·hadoop·flink·spark·prometheus
我的K84093 天前
Flink独立集群+Flink整合yarn
大数据·flink
Tech Synapse3 天前
用Java实现samza转换成flink
java·开发语言·flink
宝哥大数据3 天前
flink+kafka 如何保证精准一次
flink·kafka
我的K84094 天前
Flink中自定义Source和Sink的使用
flink
我的K84094 天前
Flink的流、批处理
大数据·flink