浙江省大数据Hudi配置

Hudi部署

完成解压安装及配置后使用maven对hudi进行构建(spark3.1,scala-2.12),使用spark-shell操作hudi(启动时若需要hudi-spark3.1-bundle_2.12-0.12.0.jar,该包已放置在/opt/software下,若不需要请忽略),将spark-shell启动命令复制并粘贴至对应报告中;使用spark-shell运行下面给到的案例,并将最终查询结果截图粘贴至对应报告中。

Scala 复制代码
 import org.apache.hudi.QuickstartUtils._
 import scala.collection.JavaConversions._
 import org.apache.spark.sql.SaveMode.
 import org.apache.hudi.DataSourceReadOptions._
 import org.apache.hudi.DataSourceWriteOptions._
 import org.apache.hudi.config.HoodieWriteConfig._
 import org.apache.hudi.common.model.HoodieRecord
 ​
 val tableName = "hudi_trips_cow"
 val basePath = "file:///tmp/hudi_trips_cow"
 val dataGen = new DataGenerator
 ​
 val inserts = convertToStringList(dataGen.generateInserts(10))
 val df = spark.read.json(spark.sparkContext.parallelize(inserts, 2))
 df.write.format("hudi").
   options(getQuickstartWriteConfigs).
   option(PRECOMBINE_FIELD_OPT_KEY, "ts").
   option(RECORDKEY_FIELD_OPT_KEY, "uuid").
   option(PARTITIONPATH_FIELD_OPT_KEY, "partitionpath").
   option(TABLE_NAME, tableName).
   mode(Overwrite).
   save(basePath)
 ​
 val tripsSnapshotDF = spark.read.format("hudi").load(basePath + "/*/*/*/*")
 tripsSnapshotDF.createOrReplaceTempView("hudi_trips_snapshot")
 spark.sql("select fare, begin_lon, begin_lat, ts from  hudi_trips_snapshot where fare > 20.0").show()

操作步骤:

1 将编译完成与spark集成的jar包,集成后使用spark-shell操作hudi,启动spark-shell。

bash 复制代码
 spark-shell \
   --jars /opt/software/hudi-spark3.1-bundle_2.12-0.12.0.jar \
   --conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' \
   --conf 'spark.sql.extensions=org.apache.spark.sql.hudi.HoodieSparkSessionExtension'

2 在spark-shell使用:paste编译多条语句按下ctrl+D执行多行语句

复制代码
 :paste
Scala 复制代码
 // 导入依赖包
 import org.apache.hudi.QuickstartUtils._
 import scala.collection.JavaConversions._
 import org.apache.spark.sql.SaveMode._
 import org.apache.hudi.DataSourceReadOptions._
 import org.apache.hudi.DataSourceWriteOptions._
 import org.apache.hudi.config.HoodieWriteConfig._
 import org.apache.hudi.common.model.HoodieRecord
 ​
 // 定义Hudi映射到的文件目录,以及存储表的名称
 val tableName = "hudi_trips_cow"
 val basePath = "file:///tmp/hudi_trips_cow"
 ​
 // 创建数据生成器实例
 val dataGen = new DataGenerator
 ​
 // 使用Hudi的数据生成器生成10条JSON数据
 val inserts = convertToStringList(dataGen.generateInserts(10))
复制代码
 ctrl+D           //执行多行语句

3 将10条JSON数据加载到DataFrame中,并写入hudi,实现一个简单的ETL处理

复制代码
 :paste
Scala 复制代码
 // 读取json数据到DataFrame中
 val df = spark.read.json(spark.sparkContext.parallelize(inserts, 2))
 ​
 // 将DataFrame写入数据湖
 df.write.format("hudi").
   options(getQuickstartWriteConfigs).
   option(PRECOMBINE_FIELD_OPT_KEY, "ts").
   option(RECORDKEY_FIELD_OPT_KEY, "uuid").
   option(PARTITIONPATH_FIELD_OPT_KEY, "partitionpath").
   option(TABLE_NAME, tableName).
   mode(Overwrite).
   save(basePath)
复制代码
 ctrl+D           //执行多行语句

4 将10条JSON数据加载到DataFrame中,并写入hudi,实现一个简单的ETL处理

复制代码
 :paste
Scala 复制代码
 // 从数据湖中读取数据到DataFrame中
 val tripsSnapshotDF = spark.read.format("hudi").load(basePath + "/*/*/*/*")
 ​
 // 注册临时表
 tripsSnapshotDF.createOrReplaceTempView("hudi_trips_snapshot")
 ​
 // 执行SQL查询,并显示
 spark.sql("select fare, begin_lon, begin_lat, ts from  hudi_trips_snapshot where fare > 20.0").show()
复制代码
 ctrl+D           //执行多行语句
相关推荐
风落无尘4 小时前
《智能重生:从垃圾堆到AI工程师》——第二章 概率与生存
大数据·人工智能
档案宝档案管理4 小时前
无缝对接财务软件,实现会计档案全流程自动化流转
大数据
juniperhan4 小时前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
科研前沿4 小时前
2026 数字孪生前沿科技:全景迭代报告 —— 镜像视界生成式孪生(Generative DT)技术白皮书
大数据·人工智能·科技·算法·音视频·空间计算
Elastic 中国社区官方博客5 小时前
Elastic-caveman : 在不损失 Elastic 最佳效果的情况下,将 AI 响应 tokens 减少64%
大数据·运维·数据库·人工智能·elasticsearch·搜索引擎·全文检索
互联网推荐官5 小时前
上海软件定制开发全流程拆解:需求分析、技术选型与交付管理的工程实践
大数据·数据库·需求分析
samFuB5 小时前
【数据集】分省农林牧渔总产值、农业总产值数据(2007-2024年)
大数据
云天AI实战派6 小时前
AI 智能体问题排查指南:ChatGPT、API 调用到 Agent 上线失灵的全流程修复手册
大数据·人工智能·python·chatgpt·aigc
m0_466525297 小时前
酷特AGI:从“自家试验田”到“全球输出”
大数据·人工智能·agi
市象7 小时前
AI带给TCL空调的头部假想
大数据·人工智能