Flink实时数据写入Redis实战

这段代码展示了如何使用 Flink 将数据流写入 Redis,核心是通过 RedisSinkRedisMapper 实现数据的映射和存储。通过这种方式,可以方便地将实时处理的结果存储到 Redis 中,供后续查询或分析使用。

这段代码的主要功能是将用户点击事件流写入 Redis 的哈希表中,方便后续查询和分析。

  • 适用场景 :
    • 实时记录用户点击行为。
    • 将 Flink 处理后的结果存储到 Redis 中,供其他系统使用。

代码结构

  • 包名 : package sink
    表示这个类属于 sink 包。
  • 导入的依赖 :
    • org.apache.flink.streaming.api.scala._: Flink 的 Scala API。
    • org.apache.flink.streaming.connectors.redis.RedisSink: Flink 提供的 Redis Sink 连接器。
    • org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig: Redis 连接池的配置类。
    • org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}: Redis 映射相关的类。
    • source.ClickSource: 自定义的数据源,用于生成模拟的点击事件流。
Scala 复制代码
package sink

import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.connectors.redis.RedisSink
import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig
import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}
import source.ClickSource

/**
 *
 * @PROJECT_NAME: flink1.13
 * @PACKAGE_NAME: sink
 * @author: 赵嘉盟-HONOR
 * @data: 2023-11-20 14:53
 * @DESCRIPTION
 *
 */
object sinkToRedis {
  def main(args: Array[String]): Unit = {
    val env=StreamExecutionEnvironment.getExecutionEnvironment
    val data = env.addSource(new ClickSource)

    val conf=new FlinkJedisPoolConfig.Builder().setHost("").build()
    data.addSink(new RedisSink[source.Event](conf,new RedisMapper[source.Event] {
      override def getCommandDescription: RedisCommandDescription = new RedisCommandDescription(RedisCommand.HSET,"click")
      override def getKeyFromData(t: source.Event): String = t.user
      override def getValueFromData(t: source.Event): String = t.url
    }))
    env.execute("sinkRedis")
  }
}
代码解释:
Scala 复制代码
val env = StreamExecutionEnvironment.getExecutionEnvironment
  • 获取 Flink 的流处理执行环境。
(2) 添加数据源
Scala 复制代码
val data = env.addSource(new ClickSource)
  • 使用自定义的 ClickSource 作为数据源,生成一个数据流 data
    ClickSource 可能是一个模拟用户点击事件的数据源,生成 Event 类型的数据。
(3) 配置 Redis 连接池
Scala 复制代码
val conf = new FlinkJedisPoolConfig.Builder().setHost("").build()
  • 创建一个 Redis 连接池配置 FlinkJedisPoolConfig
    这里 setHost("") 需要填写 Redis 服务器的主机地址(例如 "localhost""127.0.0.1")。
(4) 添加 Redis Sink
Scala 复制代码
data.addSink(new RedisSink[source.Event](conf, new RedisMapper[source.Event] {
  override def getCommandDescription: RedisCommandDescription = new RedisCommandDescription(RedisCommand.HSET, "click")
  override def getKeyFromData(t: source.Event): String = t.user
  override def getValueFromData(t: source.Event): String = t.url
}))
  • 将数据流 data 写入 Redis。
  • RedisSink :
    • 第一个参数是 Redis 连接池配置 conf
    • 第二个参数是一个 RedisMapper 的实现,用于定义如何将数据映射到 Redis。
  • RedisMapper :
    • getCommandDescription: 定义 Redis 命令和键名。
      这里使用 HSET 命令,将数据写入 Redis 的哈希表 "click"
    • getKeyFromData: 定义哈希表中的字段(field),这里使用 Eventuser 字段。
    • getValueFromData: 定义哈希表中的值(value),这里使用 Eventurl 字段。
Scala 复制代码
env.execute("sinkRedis")
  • 启动 Flink 任务,任务名称为 "sinkRedis"

基于scala使用flink将读取到的数据写入到Redis

getCommandDescription第一个参数为写入方式,第二个参数为Hset的键

相关推荐
路边草随风5 小时前
java实现发布flink k8s application模式作业
java·大数据·flink·kubernetes
啊吧怪不啊吧5 小时前
算法王冠上的明珠——动态规划之斐波那契数列问题(第二篇)
大数据·算法·leetcode·动态规划
pale_moonlight5 小时前
十、Scala应用实践(下)
linux·开发语言·scala
诗旸的技术记录与分享5 小时前
Flink-1.19.0源码详解11-Flink ResourceManager资源调度
大数据·flink
摇滚侠5 小时前
ElasticSearch 教程入门到精通,部署环境,Windows 集群部署,笔记29、30
大数据·笔记·elasticsearch
艾莉丝努力练剑5 小时前
【Python基础:语法第四课】列表和元组——Python 里的“爱情”:列表善变,元组长情
大数据·人工智能·windows·python·安全·pycharm·编辑器
Guheyunyi7 小时前
智慧停车管理系统:以科技重塑交通效率与体验
大数据·服务器·人工智能·科技·安全·生活
wang_yb17 小时前
数据会说谎?三大推断方法帮你“审问”数据真相
大数据·databook
天远数科18 小时前
Golang并发实战:高效对接天远API实现海量用户画像构建
大数据·api