Spark解析JSON字符串

bash 复制代码
  {"zhang":{"pid":"alkjdlj","pname":"oweiwuio","page":"werwrw"}}

映射结构 : 第一层MAP,里面切套 MAP,key是String类型,value是string类型

bash 复制代码
val jsonMapper = MapType(StringType, MapType(StringType, StringType))

使用 schema_of_json 动态推断每个键的结构
s_desc 是传入的json格式的字段名称 , json_map是下文解析的变量值

bash 复制代码
    val dynamicResult = frame.withColumn("json_map", from_json(col("s_desc"), jsonMapper))
      // TODO:  person_key 是第一层嵌套的值,必须用这个名称才能取到,explode函数对json_map进行行转列
      .select(explode(col("json_map")).as(Seq("person_key", "person_data")))
      // TODO: 每一列里面进行取值
      .select(
        col("person_key"),
        col("person_data").getItem("pid").as("pid"),
        col("person_data").getItem("pname").as("pname"),
        col("person_data").getItem("page").as("page")
      )
bash 复制代码
package com.zxl

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.catalyst.dsl.expressions.{DslExpression, StringToAttributeConversionHelper}
import org.apache.spark.sql.functions.{col, explode, from_json, get_json_object, posexplode}
import org.apache.spark.sql.types.{IntegerType, MapType, StringType, StructField, StructType}

import java.util.Properties

object JSONTest {
  def main(args: Array[String]): Unit = {
    // TODO: 创建上下文
    val sparkName = new SparkConf().setMaster("local[*]").setAppName("sparkName")
    // TODO: 创建sparkSession
    val session = SparkSession.builder().config(sparkName).getOrCreate()
    // TODO: 配置JDBC配置,连接mysql
    val props: Properties = new Properties()
    props.setProperty("user", "root")
    props.setProperty("password", "1234")
    // TODO: 配置 school 表连接
    val school = session.read.jdbc("jdbc:mysql://localhost:3306/world", "school", props)
    // TODO: 注册视图表 school
    school.createOrReplaceTempView("school")
    val frame = session.sql("select * from school")

    // TODO:  {"zhang":{"pid":"alkjdlj","pname":"oweiwuio","page":"werwrw"}}
    // TODO: 映射结构 : 第一层MAP,里面切套 MAP,key是String类型,value是string类型
    val jsonMapper = MapType(StringType, MapType(StringType, StringType))
    // TODO:   使用 schema_of_json 动态推断每个键的结构
    // TODO:  s_desc 是传入的json格式的字段名称 , json_map是下文解析的变量值
    val dynamicResult = frame.withColumn("json_map", from_json(col("s_desc"), jsonMapper))
      // TODO:  person_key 是第一层嵌套的值,必须用这个名称才能取到,explode函数对json_map进行行转列
      .select(explode(col("json_map")).as(Seq("person_key", "person_data")))
      // TODO: 每一列里面进行取值
      .select(
        col("person_key"),
        col("person_data").getItem("pid").as("pid"),
        col("person_data").getItem("pname").as("pname"),
        col("person_data").getItem("page").as("page")
      )

    dynamicResult.createOrReplaceTempView("zhangMs")


    // TODO: 配置 person 表连接
    val person = session.read.jdbc("jdbc:mysql://localhost:3306/world", "person", props)
    // TODO: 注册视图表 person
    person.createOrReplaceTempView("person")
    session.sql("select * from zhangMs Left join person on zhangMs.person_key=person.pid").show()



    session.stop()
    session.close()
  }
}
相关推荐
Me4神秘18 小时前
国家级互联网骨干直联点及容量、互联网交换中心
大数据·信息与通信
Mike_66619 小时前
txt_json和xml_json
xml·python·json
DevOpenClub19 小时前
语义化获取站点 JSON 结构内容 API 接口
json
zandy101120 小时前
全链路可控+极致性能,衡石HENGSHI CLI重新定义企业级BI工具的AI协作能力
大数据·人工智能·ai analytics·ai native·agent-first
果粒蹬i21 小时前
Elasticsearch 单机部署实测:安装流程、常见坑点与远程访问配置
大数据·elasticsearch·搜索引擎
AC赳赳老秦21 小时前
OpenClaw数据库高效操作指南:MySQL/PostgreSQL批量处理与数据迁移实战
大数据·数据库·mysql·elasticsearch·postgresql·deepseek·openclaw
小王毕业啦21 小时前
2006-2023年 省级-建成区绿化覆盖率数据(xlsx)
大数据·人工智能·数据挖掘·数据分析·社科数据·实证分析·经管数据
AEIC学术交流中心1 天前
【快速EI检索 | SPIE出版】第六届中国膜计算论坛暨2026年人工智能、大数据与电气自动化国际学术会议(CWMC&AIBDE 2026)
大数据·人工智能·量子计算
历程里程碑1 天前
二叉树---二叉树的中序遍历
java·大数据·开发语言·elasticsearch·链表·搜索引擎·lua
AC赳赳老秦1 天前
OpenClaw text-translate技能:多语言批量翻译,解决跨境工作沟通难题
大数据·运维·数据库·人工智能·python·deepseek·openclaw