Flink数据流高效写入HBase实战

目录

[1. 代码结构](#1. 代码结构)

代码解析

[(1) 主程序入口](#(1) 主程序入口)

[(2) 定义数据流](#(2) 定义数据流)

[(3) 自定义 HBase Sink](#(3) 自定义 HBase Sink)

[(4) 初始化 HBase 连接](#(4) 初始化 HBase 连接)

[(5) 写入数据到 HBase](#(5) 写入数据到 HBase)

[(6) 关闭 HBase 连接](#(6) 关闭 HBase 连接)

[(7) 执行任务](#(7) 执行任务)


这段代码展示了如何使用 Apache Flink 将数据流写入 HBase,并使用了 RichSinkFunction 来实现自定义的 Sink 逻辑。以下是对代码的详细解析和说明:

1. 代码结构

  • 包声明package sink

    定义了代码所在的包。

  • 导入依赖

    导入了必要的 Flink 和 HBase 相关类库,包括:

    • org.apache.flink.configuration.Configuration:Flink 配置类。
    • org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}:Flink 的 Sink 相关类。
    • org.apache.flink.streaming.api.scala._:Flink 流处理 API。
    • org.apache.hadoop.hbase:HBase 相关类库。
  • sinkToHbase 对象

    主程序入口,包含 Flink 流处理逻辑和 HBase Sink 的配置。

Scala 复制代码
package sink

import java.nio.charset.StandardCharsets

import org.apache.flink.configuration.Configuration
import org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}
import org.apache.flink.streaming.api.scala._
import org.apache.hadoop.conf
import org.apache.hadoop.hbase.{HBaseConfiguration, TableName}
import org.apache.hadoop.hbase.client.{Connection, ConnectionFactory, Put}

/**
 *
 * @PROJECT_NAME: flink1.13
 * @PACKAGE_NAME: sink
 * @author: 赵嘉盟-HONOR
 * @data: 2023-11-20 15:37
 * @DESCRIPTION
 *
 */
object sinkToHbase {
  def main(args: Array[String]): Unit = {
    val env = StreamExecutionEnvironment.getExecutionEnvironment

    val data = env.fromElements(
      Event("Mary", "./home", 100L),
      Event("Sum", "./cart", 500L),
      Event("King", "./prod", 1000L),
      Event("King", "./root", 200L)
    )

    data.addSink(new RichSinkFunction[Event] {
      var conn:Connection=null
      override def open(parameters: Configuration): Unit = {
        val conf = HBaseConfiguration.create()
        conf.set("","")
        conn=ConnectionFactory.createConnection(conf)
      }
      override def invoke(value: Event, context: SinkFunction.Context): Unit = {
        val table=conn.getTable(TableName.valueOf("test"))
        val put = new Put("rowkey".getBytes(StandardCharsets.UTF_8))
        put.addColumn(
          "info".getBytes(StandardCharsets.UTF_8),
          "username".getBytes(StandardCharsets.UTF_8),
          value.user.getBytes(StandardCharsets.UTF_8))
        table.put(put)
        table.close()
      }
      override def close(): Unit = conn.close()
    })
    env.execute("sinkToHbase")
  }
}

getTable:指定命名空间与写入表名,用分号分割

Put:指定rowkey

addColumn:指定列族,列名,值

代码解析

(1) 主程序入口
Scala 复制代码
def main(args: Array[String]): Unit = {
  val env = StreamExecutionEnvironment.getExecutionEnvironment
  • 创建 Flink 流处理环境 StreamExecutionEnvironment
(2) 定义数据流
Scala 复制代码
val data = env.fromElements(
  Event("Mary", "./home", 100L),
  Event("Sum", "./cart", 500L),
  Event("King", "./prod", 1000L),
  Event("King", "./root", 200L)
)
  • 使用 fromElements 方法生成一个包含 4 个 Event 对象的流。
(3) 自定义 HBase Sink
Scala 复制代码
data.addSink(new RichSinkFunction[Event] {
  var conn: Connection = null
  • 使用 RichSinkFunction 实现自定义的 Sink 逻辑。
  • 定义 conn 变量用于存储 HBase 连接。
(4) 初始化 HBase 连接
Scala 复制代码
override def open(parameters: Configuration): Unit = {
  val conf = HBaseConfiguration.create()
  conf.set("", "") // 设置 HBase 配置
  conn = ConnectionFactory.createConnection(conf)
}
  • open 方法中初始化 HBase 连接:
    • 创建 HBase 配置对象 HBaseConfiguration
    • 设置 HBase 配置(未填写具体配置)。
    • 创建 HBase 连接 Connection
(5) 写入数据到 HBase
Scala 复制代码
override def invoke(value: Event, context: SinkFunction.Context): Unit = {
  val table = conn.getTable(TableName.valueOf("test"))
  val put = new Put("rowkey".getBytes(StandardCharsets.UTF_8))
  put.addColumn(
    "info".getBytes(StandardCharsets.UTF_8),
    "username".getBytes(StandardCharsets.UTF_8),
    value.user.getBytes(StandardCharsets.UTF_8))
  table.put(put)
  table.close()
}
  • invoke 方法中将数据写入 HBase:
    • 获取 HBase 表 test
    • 创建 Put 对象,设置行键为 rowkey
    • 添加列族 info 和列 username,值为 Event 对象的 user 字段。
    • 将数据写入 HBase 表。
    • 关闭表连接。
(6) 关闭 HBase 连接
Scala 复制代码
override def close(): Unit = conn.close()
  • close 方法中关闭 HBase 连接。
(7) 执行任务
Scala 复制代码
env.execute("sinkToHbase")
  • 启动 Flink 流处理任务,任务名称为 sinkToHbase
相关推荐
跨境卫士情报站23 分钟前
摆脱砍单魔咒!Temu 自养号系统化采购,低成本高安全
大数据·人工智能·安全·跨境电商·亚马逊·防关联
AI营销实验室28 分钟前
AI CRM系统升级,原圈科技赋能销冠复制
大数据·人工智能
snpgroupcn30 分钟前
SAP系统动态归档与系统退役核心区别解析,以及会被问到的问题?
大数据
保卫大狮兄39 分钟前
TPM 到底用在设备管理的哪个阶段?
大数据·运维
禾高网络39 分钟前
互联网医院定制|互联网医院|禾高互联网医院搭建
java·大数据·人工智能·小程序
西安同步高经理41 分钟前
国产函数信号发生器对标国外产品性能如何、双通道函数发生器、国产函数信号发生器
大数据
小北方城市网1 小时前
第 5 课:Vue 3 HTTP 请求与 UI 库实战 —— 从本地数据到前后端交互应用
大数据·前端·人工智能·ai·自然语言处理
CES_Asia1 小时前
机器人“奥运会”登陆!CES Asia 2026角逐消费级机器人王座
大数据·人工智能·科技·机器人
电商API&Tina1 小时前
跨境电商速卖通(AliExpress)数据采集与 API 接口接入全方案
大数据·开发语言·前端·数据库·人工智能·python
xerthwis1 小时前
Hadoop:大数据世界的“古老基石”与“沉默的共生者”
大数据·人工智能·hadoop