Flink实时数据写入Redis实战

这段代码展示了如何使用 Flink 将数据流写入 Redis,核心是通过 RedisSinkRedisMapper 实现数据的映射和存储。通过这种方式,可以方便地将实时处理的结果存储到 Redis 中,供后续查询或分析使用。

这段代码的主要功能是将用户点击事件流写入 Redis 的哈希表中,方便后续查询和分析。

  • 适用场景 :
    • 实时记录用户点击行为。
    • 将 Flink 处理后的结果存储到 Redis 中,供其他系统使用。

代码结构

  • 包名 : package sink
    表示这个类属于 sink 包。
  • 导入的依赖 :
    • org.apache.flink.streaming.api.scala._: Flink 的 Scala API。
    • org.apache.flink.streaming.connectors.redis.RedisSink: Flink 提供的 Redis Sink 连接器。
    • org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig: Redis 连接池的配置类。
    • org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}: Redis 映射相关的类。
    • source.ClickSource: 自定义的数据源,用于生成模拟的点击事件流。
Scala 复制代码
package sink

import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.connectors.redis.RedisSink
import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig
import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}
import source.ClickSource

/**
 *
 * @PROJECT_NAME: flink1.13
 * @PACKAGE_NAME: sink
 * @author: 赵嘉盟-HONOR
 * @data: 2023-11-20 14:53
 * @DESCRIPTION
 *
 */
object sinkToRedis {
  def main(args: Array[String]): Unit = {
    val env=StreamExecutionEnvironment.getExecutionEnvironment
    val data = env.addSource(new ClickSource)

    val conf=new FlinkJedisPoolConfig.Builder().setHost("").build()
    data.addSink(new RedisSink[source.Event](conf,new RedisMapper[source.Event] {
      override def getCommandDescription: RedisCommandDescription = new RedisCommandDescription(RedisCommand.HSET,"click")
      override def getKeyFromData(t: source.Event): String = t.user
      override def getValueFromData(t: source.Event): String = t.url
    }))
    env.execute("sinkRedis")
  }
}
代码解释:
Scala 复制代码
val env = StreamExecutionEnvironment.getExecutionEnvironment
  • 获取 Flink 的流处理执行环境。
(2) 添加数据源
Scala 复制代码
val data = env.addSource(new ClickSource)
  • 使用自定义的 ClickSource 作为数据源,生成一个数据流 data
    ClickSource 可能是一个模拟用户点击事件的数据源,生成 Event 类型的数据。
(3) 配置 Redis 连接池
Scala 复制代码
val conf = new FlinkJedisPoolConfig.Builder().setHost("").build()
  • 创建一个 Redis 连接池配置 FlinkJedisPoolConfig
    这里 setHost("") 需要填写 Redis 服务器的主机地址(例如 "localhost""127.0.0.1")。
(4) 添加 Redis Sink
Scala 复制代码
data.addSink(new RedisSink[source.Event](conf, new RedisMapper[source.Event] {
  override def getCommandDescription: RedisCommandDescription = new RedisCommandDescription(RedisCommand.HSET, "click")
  override def getKeyFromData(t: source.Event): String = t.user
  override def getValueFromData(t: source.Event): String = t.url
}))
  • 将数据流 data 写入 Redis。
  • RedisSink :
    • 第一个参数是 Redis 连接池配置 conf
    • 第二个参数是一个 RedisMapper 的实现,用于定义如何将数据映射到 Redis。
  • RedisMapper :
    • getCommandDescription: 定义 Redis 命令和键名。
      这里使用 HSET 命令,将数据写入 Redis 的哈希表 "click"
    • getKeyFromData: 定义哈希表中的字段(field),这里使用 Eventuser 字段。
    • getValueFromData: 定义哈希表中的值(value),这里使用 Eventurl 字段。
Scala 复制代码
env.execute("sinkRedis")
  • 启动 Flink 任务,任务名称为 "sinkRedis"

基于scala使用flink将读取到的数据写入到Redis

getCommandDescription第一个参数为写入方式,第二个参数为Hset的键

相关推荐
InterestOriented6 小时前
破解银发学习痛点 兴趣岛 “普惠 + 品质” 模式打造积极老龄化范本
大数据·人工智能·学习
pingao1413788 小时前
太阳总辐射传感器:能源、气象领域的关键测量工具
大数据·能源
百***78759 小时前
Grok-4.1技术深度解析:双版本架构突破与Python API快速集成指南
大数据·python·架构
Francek Chen10 小时前
【大数据基础】大数据处理架构Hadoop:01 Hadoop概述
大数据·hadoop·分布式·架构
互联网科技看点11 小时前
诸葛io获认可:金融分析智能体赛道领航者
大数据·人工智能·金融
2301_8002561112 小时前
全球气候与环境变化考试知识点梳理(1)
大数据·人工智能
edisao12 小时前
六、 读者高频疑问解答 & 架构价值延伸
大数据·开发语言·人工智能·科技·架构·php
-大头.12 小时前
GIT教程系列(共3篇)---------第二篇:Git高级协作与团队实战完全指南
大数据·git·elasticsearch
HXDGCL13 小时前
大会观察 | 破除创新链堵点:论“工厂直供”模式如何加速自动化核心部件迭代
大数据·人工智能·自动化·自动化生产线·环形导轨
五度易链-区域产业数字化管理平台13 小时前
五度易链企业数据服务架构思考:从“存数据”到“用数据”的全周期解决方案
大数据·人工智能·架构