Flink实时数据写入Redis实战

这段代码展示了如何使用 Flink 将数据流写入 Redis,核心是通过 RedisSinkRedisMapper 实现数据的映射和存储。通过这种方式,可以方便地将实时处理的结果存储到 Redis 中,供后续查询或分析使用。

这段代码的主要功能是将用户点击事件流写入 Redis 的哈希表中,方便后续查询和分析。

  • 适用场景 :
    • 实时记录用户点击行为。
    • 将 Flink 处理后的结果存储到 Redis 中,供其他系统使用。

代码结构

  • 包名 : package sink
    表示这个类属于 sink 包。
  • 导入的依赖 :
    • org.apache.flink.streaming.api.scala._: Flink 的 Scala API。
    • org.apache.flink.streaming.connectors.redis.RedisSink: Flink 提供的 Redis Sink 连接器。
    • org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig: Redis 连接池的配置类。
    • org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}: Redis 映射相关的类。
    • source.ClickSource: 自定义的数据源,用于生成模拟的点击事件流。
Scala 复制代码
package sink

import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.connectors.redis.RedisSink
import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig
import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}
import source.ClickSource

/**
 *
 * @PROJECT_NAME: flink1.13
 * @PACKAGE_NAME: sink
 * @author: 赵嘉盟-HONOR
 * @data: 2023-11-20 14:53
 * @DESCRIPTION
 *
 */
object sinkToRedis {
  def main(args: Array[String]): Unit = {
    val env=StreamExecutionEnvironment.getExecutionEnvironment
    val data = env.addSource(new ClickSource)

    val conf=new FlinkJedisPoolConfig.Builder().setHost("").build()
    data.addSink(new RedisSink[source.Event](conf,new RedisMapper[source.Event] {
      override def getCommandDescription: RedisCommandDescription = new RedisCommandDescription(RedisCommand.HSET,"click")
      override def getKeyFromData(t: source.Event): String = t.user
      override def getValueFromData(t: source.Event): String = t.url
    }))
    env.execute("sinkRedis")
  }
}
代码解释:
Scala 复制代码
val env = StreamExecutionEnvironment.getExecutionEnvironment
  • 获取 Flink 的流处理执行环境。
(2) 添加数据源
Scala 复制代码
val data = env.addSource(new ClickSource)
  • 使用自定义的 ClickSource 作为数据源,生成一个数据流 data
    ClickSource 可能是一个模拟用户点击事件的数据源,生成 Event 类型的数据。
(3) 配置 Redis 连接池
Scala 复制代码
val conf = new FlinkJedisPoolConfig.Builder().setHost("").build()
  • 创建一个 Redis 连接池配置 FlinkJedisPoolConfig
    这里 setHost("") 需要填写 Redis 服务器的主机地址(例如 "localhost""127.0.0.1")。
(4) 添加 Redis Sink
Scala 复制代码
data.addSink(new RedisSink[source.Event](conf, new RedisMapper[source.Event] {
  override def getCommandDescription: RedisCommandDescription = new RedisCommandDescription(RedisCommand.HSET, "click")
  override def getKeyFromData(t: source.Event): String = t.user
  override def getValueFromData(t: source.Event): String = t.url
}))
  • 将数据流 data 写入 Redis。
  • RedisSink :
    • 第一个参数是 Redis 连接池配置 conf
    • 第二个参数是一个 RedisMapper 的实现,用于定义如何将数据映射到 Redis。
  • RedisMapper :
    • getCommandDescription: 定义 Redis 命令和键名。
      这里使用 HSET 命令,将数据写入 Redis 的哈希表 "click"
    • getKeyFromData: 定义哈希表中的字段(field),这里使用 Eventuser 字段。
    • getValueFromData: 定义哈希表中的值(value),这里使用 Eventurl 字段。
Scala 复制代码
env.execute("sinkRedis")
  • 启动 Flink 任务,任务名称为 "sinkRedis"

基于scala使用flink将读取到的数据写入到Redis

getCommandDescription第一个参数为写入方式,第二个参数为Hset的键

相关推荐
WZGL12301 天前
“近邻+数智”:解码智慧养老的温情答案
大数据·人工智能·科技·生活·智能家居
A3608_(韦煜粮)1 天前
从数据沼泽到智慧引擎:现代大数据分析与应用架构全景解密
大数据·数据分析·数据治理·实时计算·数据架构·数据网格·数据湖仓
Dxy12393102161 天前
如何基于 Elasticsearch 构建亿级相似图片搜索系统
大数据·elasticsearch·搜索引擎
短视频矩阵源码定制1 天前
好用的矩阵系统机构
大数据·人工智能·矩阵
双翌视觉1 天前
机器视觉实现PCB板丝印后高精度检测
大数据·人工智能
无代码专家1 天前
无代码:重构企业数字化转型的效率逻辑
大数据·人工智能·低代码·重构
全知科技1 天前
API安全国家标准发布丨《数据安全技术 数据接口安全风险监测方法》
大数据·人工智能·安全
一人の梅雨1 天前
微店商品详情接口深度解析:从多端适配到全链路数据补全
apache
AI营销干货站1 天前
2025 AI市场舆情分析软件测评:原圈科技等3款工具深度对比
大数据·人工智能
金融Tech趋势派1 天前
2026企业微信私有化部署新选择:微盛·企微管家如何助力企业数据安全与运营效率提升?
大数据·人工智能·云计算·企业微信