Spark解析JSON字符串

bash 复制代码
  {"zhang":{"pid":"alkjdlj","pname":"oweiwuio","page":"werwrw"}}

映射结构 : 第一层MAP,里面切套 MAP,key是String类型,value是string类型

bash 复制代码
val jsonMapper = MapType(StringType, MapType(StringType, StringType))

使用 schema_of_json 动态推断每个键的结构
s_desc 是传入的json格式的字段名称 , json_map是下文解析的变量值

bash 复制代码
    val dynamicResult = frame.withColumn("json_map", from_json(col("s_desc"), jsonMapper))
      // TODO:  person_key 是第一层嵌套的值,必须用这个名称才能取到,explode函数对json_map进行行转列
      .select(explode(col("json_map")).as(Seq("person_key", "person_data")))
      // TODO: 每一列里面进行取值
      .select(
        col("person_key"),
        col("person_data").getItem("pid").as("pid"),
        col("person_data").getItem("pname").as("pname"),
        col("person_data").getItem("page").as("page")
      )
bash 复制代码
package com.zxl

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.catalyst.dsl.expressions.{DslExpression, StringToAttributeConversionHelper}
import org.apache.spark.sql.functions.{col, explode, from_json, get_json_object, posexplode}
import org.apache.spark.sql.types.{IntegerType, MapType, StringType, StructField, StructType}

import java.util.Properties

object JSONTest {
  def main(args: Array[String]): Unit = {
    // TODO: 创建上下文
    val sparkName = new SparkConf().setMaster("local[*]").setAppName("sparkName")
    // TODO: 创建sparkSession
    val session = SparkSession.builder().config(sparkName).getOrCreate()
    // TODO: 配置JDBC配置,连接mysql
    val props: Properties = new Properties()
    props.setProperty("user", "root")
    props.setProperty("password", "1234")
    // TODO: 配置 school 表连接
    val school = session.read.jdbc("jdbc:mysql://localhost:3306/world", "school", props)
    // TODO: 注册视图表 school
    school.createOrReplaceTempView("school")
    val frame = session.sql("select * from school")

    // TODO:  {"zhang":{"pid":"alkjdlj","pname":"oweiwuio","page":"werwrw"}}
    // TODO: 映射结构 : 第一层MAP,里面切套 MAP,key是String类型,value是string类型
    val jsonMapper = MapType(StringType, MapType(StringType, StringType))
    // TODO:   使用 schema_of_json 动态推断每个键的结构
    // TODO:  s_desc 是传入的json格式的字段名称 , json_map是下文解析的变量值
    val dynamicResult = frame.withColumn("json_map", from_json(col("s_desc"), jsonMapper))
      // TODO:  person_key 是第一层嵌套的值,必须用这个名称才能取到,explode函数对json_map进行行转列
      .select(explode(col("json_map")).as(Seq("person_key", "person_data")))
      // TODO: 每一列里面进行取值
      .select(
        col("person_key"),
        col("person_data").getItem("pid").as("pid"),
        col("person_data").getItem("pname").as("pname"),
        col("person_data").getItem("page").as("page")
      )

    dynamicResult.createOrReplaceTempView("zhangMs")


    // TODO: 配置 person 表连接
    val person = session.read.jdbc("jdbc:mysql://localhost:3306/world", "person", props)
    // TODO: 注册视图表 person
    person.createOrReplaceTempView("person")
    session.sql("select * from zhangMs Left join person on zhangMs.person_key=person.pid").show()



    session.stop()
    session.close()
  }
}
相关推荐
消失的旧时光-19432 分钟前
Android 面试高频:JSON 文件、大数据存储与断电安全(从原理到工程实践)
android·面试·json
武子康1 小时前
大数据-253 离线数仓 - Airflow 入门与任务调度实战:DAG、Operator、Executor 部署排错指南
大数据·后端·apache hive
guoji77882 小时前
2026年Gemini 3 Pro vs 豆包2.0深度评测:海外顶流与国产黑马谁更强?
大数据·人工智能·架构
TDengine (老段)2 小时前
TDengine IDMP 组态面板 —— 工具箱
大数据·数据库·时序数据库·tdengine·涛思数据
网络工程小王3 小时前
【大数据技术详解】——Kibana(学习笔记)
大数据·笔记·学习
zxsz_com_cn5 小时前
设备预测性维护方案设计的关键要素
大数据·人工智能
唐天下闻化5 小时前
连锁数字化改造8成翻车?三维避坑实录
大数据
坚持学习前端日记7 小时前
从零开始构建小说推荐智能体 - Coze 本地部署完整教程
大数据·人工智能·数据挖掘
IDIOT___IDIOT7 小时前
关于 git 进行版本管理的时候 gitignore 写入忽略规则而不生效的问题
大数据·git·elasticsearch