Flink数据流高效写入HBase实战

目录

[1. 代码结构](#1. 代码结构)

代码解析

[(1) 主程序入口](#(1) 主程序入口)

[(2) 定义数据流](#(2) 定义数据流)

[(3) 自定义 HBase Sink](#(3) 自定义 HBase Sink)

[(4) 初始化 HBase 连接](#(4) 初始化 HBase 连接)

[(5) 写入数据到 HBase](#(5) 写入数据到 HBase)

[(6) 关闭 HBase 连接](#(6) 关闭 HBase 连接)

[(7) 执行任务](#(7) 执行任务)


这段代码展示了如何使用 Apache Flink 将数据流写入 HBase,并使用了 RichSinkFunction 来实现自定义的 Sink 逻辑。以下是对代码的详细解析和说明:

1. 代码结构

  • 包声明package sink

    定义了代码所在的包。

  • 导入依赖

    导入了必要的 Flink 和 HBase 相关类库,包括:

    • org.apache.flink.configuration.Configuration:Flink 配置类。
    • org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}:Flink 的 Sink 相关类。
    • org.apache.flink.streaming.api.scala._:Flink 流处理 API。
    • org.apache.hadoop.hbase:HBase 相关类库。
  • sinkToHbase 对象

    主程序入口,包含 Flink 流处理逻辑和 HBase Sink 的配置。

Scala 复制代码
package sink

import java.nio.charset.StandardCharsets

import org.apache.flink.configuration.Configuration
import org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}
import org.apache.flink.streaming.api.scala._
import org.apache.hadoop.conf
import org.apache.hadoop.hbase.{HBaseConfiguration, TableName}
import org.apache.hadoop.hbase.client.{Connection, ConnectionFactory, Put}

/**
 *
 * @PROJECT_NAME: flink1.13
 * @PACKAGE_NAME: sink
 * @author: 赵嘉盟-HONOR
 * @data: 2023-11-20 15:37
 * @DESCRIPTION
 *
 */
object sinkToHbase {
  def main(args: Array[String]): Unit = {
    val env = StreamExecutionEnvironment.getExecutionEnvironment

    val data = env.fromElements(
      Event("Mary", "./home", 100L),
      Event("Sum", "./cart", 500L),
      Event("King", "./prod", 1000L),
      Event("King", "./root", 200L)
    )

    data.addSink(new RichSinkFunction[Event] {
      var conn:Connection=null
      override def open(parameters: Configuration): Unit = {
        val conf = HBaseConfiguration.create()
        conf.set("","")
        conn=ConnectionFactory.createConnection(conf)
      }
      override def invoke(value: Event, context: SinkFunction.Context): Unit = {
        val table=conn.getTable(TableName.valueOf("test"))
        val put = new Put("rowkey".getBytes(StandardCharsets.UTF_8))
        put.addColumn(
          "info".getBytes(StandardCharsets.UTF_8),
          "username".getBytes(StandardCharsets.UTF_8),
          value.user.getBytes(StandardCharsets.UTF_8))
        table.put(put)
        table.close()
      }
      override def close(): Unit = conn.close()
    })
    env.execute("sinkToHbase")
  }
}

getTable:指定命名空间与写入表名,用分号分割

Put:指定rowkey

addColumn:指定列族,列名,值

代码解析

(1) 主程序入口
Scala 复制代码
def main(args: Array[String]): Unit = {
  val env = StreamExecutionEnvironment.getExecutionEnvironment
  • 创建 Flink 流处理环境 StreamExecutionEnvironment
(2) 定义数据流
Scala 复制代码
val data = env.fromElements(
  Event("Mary", "./home", 100L),
  Event("Sum", "./cart", 500L),
  Event("King", "./prod", 1000L),
  Event("King", "./root", 200L)
)
  • 使用 fromElements 方法生成一个包含 4 个 Event 对象的流。
(3) 自定义 HBase Sink
Scala 复制代码
data.addSink(new RichSinkFunction[Event] {
  var conn: Connection = null
  • 使用 RichSinkFunction 实现自定义的 Sink 逻辑。
  • 定义 conn 变量用于存储 HBase 连接。
(4) 初始化 HBase 连接
Scala 复制代码
override def open(parameters: Configuration): Unit = {
  val conf = HBaseConfiguration.create()
  conf.set("", "") // 设置 HBase 配置
  conn = ConnectionFactory.createConnection(conf)
}
  • open 方法中初始化 HBase 连接:
    • 创建 HBase 配置对象 HBaseConfiguration
    • 设置 HBase 配置(未填写具体配置)。
    • 创建 HBase 连接 Connection
(5) 写入数据到 HBase
Scala 复制代码
override def invoke(value: Event, context: SinkFunction.Context): Unit = {
  val table = conn.getTable(TableName.valueOf("test"))
  val put = new Put("rowkey".getBytes(StandardCharsets.UTF_8))
  put.addColumn(
    "info".getBytes(StandardCharsets.UTF_8),
    "username".getBytes(StandardCharsets.UTF_8),
    value.user.getBytes(StandardCharsets.UTF_8))
  table.put(put)
  table.close()
}
  • invoke 方法中将数据写入 HBase:
    • 获取 HBase 表 test
    • 创建 Put 对象,设置行键为 rowkey
    • 添加列族 info 和列 username,值为 Event 对象的 user 字段。
    • 将数据写入 HBase 表。
    • 关闭表连接。
(6) 关闭 HBase 连接
Scala 复制代码
override def close(): Unit = conn.close()
  • close 方法中关闭 HBase 连接。
(7) 执行任务
Scala 复制代码
env.execute("sinkToHbase")
  • 启动 Flink 流处理任务,任务名称为 sinkToHbase
相关推荐
极客数模1 天前
【2026美赛赛题初步翻译F题】2026_ICM_Problem_F
大数据·c语言·python·数学建模·matlab
编程彩机1 天前
互联网大厂Java面试:从分布式架构到大数据场景解析
java·大数据·微服务·spark·kafka·分布式事务·分布式架构
vx-bot5556661 天前
企业微信接口在多租户SaaS平台中的集成架构与数据隔离实践
大数据·架构·企业微信
bubuly1 天前
软件开发全流程注意事项:从需求到运维的全方位指南
大数据·运维·数据库
xixixi777771 天前
基于零信任架构的通信
大数据·人工智能·架构·零信任·通信·个人隐私
Hello.Reader1 天前
Flink 自适应批执行(Adaptive Batch Execution)让 Batch 作业“边跑边优化”
大数据·flink·batch
LaughingZhu1 天前
Product Hunt 每日热榜 | 2026-01-31
大数据·人工智能·经验分享·搜索引擎·产品运营
babe小鑫1 天前
中专学历进入快消大厂终端销售岗位的可行性分析
大数据
samFuB1 天前
【工具变量】区县5A级旅游景区DID数据集(2000-2025年)
大数据
百夜﹍悠ゼ1 天前
数据治理DataHub安装部署
大数据·数据治理