spark3.0.1版本查询Hbase数据库例子

需求背景

现有需求,需要采用spark查询hbase数据库的数据同步到中间分析库,记录spark集成hbase的简单例子代码

scala 复制代码
import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.client.{ConnectionFactory, Scan}
import org.apache.hadoop.hbase.util.Bytes
import org.apache.spark.sql.SparkSession

object ReadHBaseData {
  def main(args: Array[String]): Unit = {
    // 创建SparkSession
    val spark = SparkSession.builder()
      .appName("ReadHBaseData")
      .master("local")
      .getOrCreate()
      
    // 创建HBase配置
    val conf = HBaseConfiguration.create()

    // 设置HBase连接参数
    conf.set("hbase.zookeeper.quorum", "localhost")
    conf.set("hbase.zookeeper.property.clientPort", "2181")

    // 创建HBase连接
    val connection = ConnectionFactory.createConnection(conf)

    // 创建HBase表
    val tableName = "my_table"
    val table = connection.getTable(TableName.valueOf(tableName))

    // 创建HBase扫描对象
    val scan = new Scan()

    // 设置要读取的列族和列
    scan.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("column1"))
    scan.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("column2"))

    // 执行HBase扫描
    val scanner = table.getScanner(scan)

    // 遍历扫描结果并将结果转换为RDD
    val rdd = spark.sparkContext.parallelize(scanner.iterator().asScala.map(result => {
      val rowKey = Bytes.toString(result.getRow)
      val value1 = Bytes.toString(result.getValue(Bytes.toBytes("cf"), Bytes.toBytes("column1")))
      val value2 = Bytes.toString(result.getValue(Bytes.toBytes("cf"), Bytes.toBytes("column2")))
      (rowKey, value1, value2)
    }).toList)

    // 将RDD转换为DataFrame
    val df = spark.createDataFrame(rdd).toDF("rowKey", "value1", "value2")

    // 显示DataFrame内容
    df.show()

    // 关闭HBase连接
    scanner.close()
    table.close()
    connection.close()

    // 关闭SparkSession
    spark.stop()
  }
}
 
相关推荐
随缘而动,随遇而安13 小时前
第九十八篇 工程落地视角:Session/Cookie/Token 原理辨析与大数据实战
大数据·spark·token·cookie·session
霑潇雨2 天前
Spark学习基础转换算子案例(单词计数(WordCount))
java·大数据·分布式·学习·spark·maven
zhojiew2 天前
使用 Spark Connect 在 Amazon EMR on EC2 上实现远程 Spark开发
大数据·分布式·spark
大江东去浪淘尽千古风流人物2 天前
【Kimera】MIT SPARK 实时度量-语义 SLAM 全栈解析:VIO + 鲁棒 PGO + 语义网格四模块架构与 EuRoC 实测深度剖析
大数据·架构·spark
大江东去浪淘尽千古风流人物2 天前
【Kimera-VIO】MIT SPARK 实时度量-语义 VIO/SLAM:六模块并行架构与智能因子图优化深度解析
大数据·架构·spark
大江东去浪淘尽千古风流人物2 天前
【Kimera-Semantics】实时三维语义重建深度解析:Fast/Merged 双路积分、对数概率体素 Bayesian 融合与 ROS 全链路实现
大数据·架构·spark
陆水A4 天前
运输时效预测模型:静态路由时效的计算与验证
大数据·人工智能·算法·spark·数据库开发·etl工程师
SeaTunnel4 天前
Apache SeaTunnel 4 月有何新动作?连接器增强与 Zeta 稳定性提升等亮点速览
大数据·数据仓库·spark·apache·seatunnel
淡定一生23334 天前
spark 3.3+ 之BloomFilter Runtime Filter
大数据·分布式·spark