Spark-SQL核心编程2

路径问题

相对路径与绝对路径:建议使用绝对路径,避免复制粘贴导致的错误,必要时将斜杠改为双反斜杠。

数据处理与展示

SQL 风格语法:创建临时视图并使用 SQL 风格语法查询数据。

DSL 风格语法 :使用 DSL 风格语法查询 user 表中的 user nameage 列。

http://【Spark-SQL核心编程 - CSDN App】https://blog.csdn.net/2401_84627304/article/details/147227309?sharetype=blog&shareId=147227309&sharerefer=APP&sharesource=2401_84627304&sharefrom=link

(我的博客文章 ++spark-SQL核心编程++ 目录中能找到 )

利用IDEA开发Spark-SQL

导入的包

下面的代码 (

复制代码
val df : DataFrame后面的地址是自己放的文档的地址

运行结果:

自定义函数:

UDF

UDAF(自定义聚合函数)

强类型的 Dataset 和弱类型的 DataFrame 都提供了相关的聚合函数, 如 count(),countDistinct(),avg(),max(),min()。除此之外,用户可以设定自己的自定义聚合函数。Spark3.0之前我们使用的是UserDefinedAggregateFunction作为自定义聚合函数,从 Spark3.0 版本后可以统一采用强类型聚合函数 Aggregator

实验需求:计算平均工资

实现方式一:RDD

RDD 实现:通过 RDD 进行薪资数据的映射和聚合,计算平均工资。

case (name, salary) => {
(salary, 1)
}

这个代码是为了弱化没有关系的东西,比如这个平均薪资中名字不重要

实现方式二:弱类型 UDAF 实现

通过创建类和函数,封装并调用自定义聚合函数,计算平均工资。

复制代码
classMyAverageUDAF extendsUserDefinedAggregateFunction{

  definputSchema: StructType =

    StructType(Array(StructField("salary",IntegerType)))

  //聚合函数缓冲区中值的数据类型(salary,count)defbufferSchema: StructType = {



    StructType(Array(StructField("sum",LongType),StructField("count",LongType)))

  }

  //函数返回值的数据类型defdataType: DataType = DoubleType

  //稳定性:对于相同的输入是否一直返回相同的输出。defdeterministic: Boolean = true//函数缓冲区初始化definitialize(buffer: MutableAggregationBuffer): Unit = {

    //存薪资的总和buffer(0) = 0L

    //存薪资的个数buffer(1) = 0L

  }

  //更新缓冲区中的数据defupdate(buffer: MutableAggregationBuffer,input: Row): Unit = {

    if(!input.isNullAt(0)) {

      buffer(0) = buffer.getLong(0) + input.getInt(0)

      buffer(1) = buffer.getLong(1) + 1

    }

  }

  //合并缓冲区defmerge(buffer1: MutableAggregationBuffer,buffer2: Row): Unit = {

    buffer1(0) = buffer1.getLong(0) + buffer2.getLong(0)

    buffer1(1) = buffer1.getLong(1) + buffer2.getLong(1)

  }

  //计算最终结果defevaluate(buffer: Row): Double = buffer.getLong(0).toDouble /

    buffer.getLong(1)

}
复制代码
valsparkconf: SparkConf = newSparkConf().setAppName("app").setMaster("local\[\*\]")

valspark:SparkSession = SparkSession.builder().config(conf).getOrCreate()



importspark.implicits._

valres :RDD[(String,Int)]= spark.sparkContext.makeRDD(List(("zhangsan", 20), ("lisi", 30), ("wangwu",40)))



valdf :DataFrame = res.toDF("name","salary")

df.createOrReplaceTempView("user")

varmyAverage = newMyAverageUDAF

//在spark中注册聚合函数spark.udf.register("avgSalary",myAverage)

spark.sql("select avgSalary(salary) from user").show()



//关闭连接spark.stop()

注意:

第一行带下划线的如果运用代码出现删除线,这个能用,只是提醒你有别的最新的法

实现方式三:强类型UDAF

相关推荐
专注数据的痴汉20 小时前
「数据获取」全国民用运输机场吞吐量排名(2006-2024)
java·大数据·服务器·数据库·信息可视化
子非衣20 小时前
CenOS7安装RabbitMQ(含延迟队列插件)
分布式·rabbitmq·ruby
和你一起去月球21 小时前
Agent 应用开发与落地学习总结
大数据·ai·大模型·agent·agentic
JZC_xiaozhong21 小时前
分析型数据库 ClickHouse 在数据中台中的集成
大数据·数据库·clickhouse·架构·数据一致性·数据孤岛解决方案·数据集成与应用集成
说私域21 小时前
基于AI智能名片链动2+1模式预约服务商城小程序的数据管理与系统集成研究
大数据·人工智能·小程序
linweidong21 小时前
中科曙光Java后端开发面试题及参考答案
分布式·设计模式·spring mvc·tcp协议·三次握手·后端开发·java面经
AC赳赳老秦21 小时前
技术文档合著:DeepSeek辅助多人协作文档的风格统一与内容补全
android·大数据·人工智能·微服务·golang·自动化·deepseek
安达发公司21 小时前
安达发|煤炭行业APS高级排产:开启高效生产新时代
大数据·人工智能·aps高级排程·安达发aps·车间排产软件·aps高级排产
中科天工21 小时前
如何实现工业4.0智能制造的自动化包装解决方案?
大数据·人工智能·智能
沃达德软件21 小时前
警务指挥情报中心建设
大数据·数据仓库·数据库开发