Spark解析JSON字符串

bash 复制代码
  {"zhang":{"pid":"alkjdlj","pname":"oweiwuio","page":"werwrw"}}

映射结构 : 第一层MAP,里面切套 MAP,key是String类型,value是string类型

bash 复制代码
val jsonMapper = MapType(StringType, MapType(StringType, StringType))

使用 schema_of_json 动态推断每个键的结构
s_desc 是传入的json格式的字段名称 , json_map是下文解析的变量值

bash 复制代码
    val dynamicResult = frame.withColumn("json_map", from_json(col("s_desc"), jsonMapper))
      // TODO:  person_key 是第一层嵌套的值,必须用这个名称才能取到,explode函数对json_map进行行转列
      .select(explode(col("json_map")).as(Seq("person_key", "person_data")))
      // TODO: 每一列里面进行取值
      .select(
        col("person_key"),
        col("person_data").getItem("pid").as("pid"),
        col("person_data").getItem("pname").as("pname"),
        col("person_data").getItem("page").as("page")
      )
bash 复制代码
package com.zxl

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.catalyst.dsl.expressions.{DslExpression, StringToAttributeConversionHelper}
import org.apache.spark.sql.functions.{col, explode, from_json, get_json_object, posexplode}
import org.apache.spark.sql.types.{IntegerType, MapType, StringType, StructField, StructType}

import java.util.Properties

object JSONTest {
  def main(args: Array[String]): Unit = {
    // TODO: 创建上下文
    val sparkName = new SparkConf().setMaster("local[*]").setAppName("sparkName")
    // TODO: 创建sparkSession
    val session = SparkSession.builder().config(sparkName).getOrCreate()
    // TODO: 配置JDBC配置,连接mysql
    val props: Properties = new Properties()
    props.setProperty("user", "root")
    props.setProperty("password", "1234")
    // TODO: 配置 school 表连接
    val school = session.read.jdbc("jdbc:mysql://localhost:3306/world", "school", props)
    // TODO: 注册视图表 school
    school.createOrReplaceTempView("school")
    val frame = session.sql("select * from school")

    // TODO:  {"zhang":{"pid":"alkjdlj","pname":"oweiwuio","page":"werwrw"}}
    // TODO: 映射结构 : 第一层MAP,里面切套 MAP,key是String类型,value是string类型
    val jsonMapper = MapType(StringType, MapType(StringType, StringType))
    // TODO:   使用 schema_of_json 动态推断每个键的结构
    // TODO:  s_desc 是传入的json格式的字段名称 , json_map是下文解析的变量值
    val dynamicResult = frame.withColumn("json_map", from_json(col("s_desc"), jsonMapper))
      // TODO:  person_key 是第一层嵌套的值,必须用这个名称才能取到,explode函数对json_map进行行转列
      .select(explode(col("json_map")).as(Seq("person_key", "person_data")))
      // TODO: 每一列里面进行取值
      .select(
        col("person_key"),
        col("person_data").getItem("pid").as("pid"),
        col("person_data").getItem("pname").as("pname"),
        col("person_data").getItem("page").as("page")
      )

    dynamicResult.createOrReplaceTempView("zhangMs")


    // TODO: 配置 person 表连接
    val person = session.read.jdbc("jdbc:mysql://localhost:3306/world", "person", props)
    // TODO: 注册视图表 person
    person.createOrReplaceTempView("person")
    session.sql("select * from zhangMs Left join person on zhangMs.person_key=person.pid").show()



    session.stop()
    session.close()
  }
}
相关推荐
小邓睡不饱耶11 分钟前
基于Spark GraphX构建用户信任网络:精准定位高价值目标用户
大数据·spark·php
编程彩机9 小时前
互联网大厂Java面试:从Java SE到大数据场景的技术深度解析
java·大数据·spring boot·面试·spark·java se·互联网大厂
不是很大锅9 小时前
卸载TDengine
大数据·时序数据库·tdengine
qyr678910 小时前
深度解析:3D细胞培养透明化试剂供应链与主要制造商分布
大数据·人工智能·3d·市场分析·市场报告·3d细胞培养·细胞培养
2501_9449347311 小时前
工业大数据方向,CDA证书和工业数据工程师证哪个更实用?
大数据
每天要多喝水11 小时前
nlohmann/json 的使用
c++·json
迎仔12 小时前
04-快反部队:Impala, Presto & Trino 通俗指南
大数据
BYSJMG12 小时前
计算机毕业设计选题推荐:基于大数据的肥胖风险分析与可视化系统详解
大数据·vue.js·数据挖掘·数据分析·课程设计
yqd66613 小时前
elasticsearch
大数据·elasticsearch·搜索引擎
Leo.yuan13 小时前
经营分析会,该讲些什么?
大数据·数据库·数据分析