spark3.3.x处理excel数据

环境:

spark3.3.x

scala2.12.x
引用:

spark-shell --jars spark-excel_2.12-3.3.1_0.18.5.jar

或项目里配置pom.xml

scala 复制代码
<!-- https://mvnrepository.com/artifact/com.crealytics/spark-excel -->
<dependency>
    <groupId>com.crealytics</groupId>
    <artifactId>spark-excel_2.12</artifactId>
    <version>3.3.1_0.18.5</version>
</dependency>

代码:

1、直接使用excel文件第一行作为schema

scala 复制代码
val df = spark.read
     .format("com.crealytics.spark.excel")
//     .format("excel") // 该版本的包直接写"excel"也可以
     .option("header", "true") // 该版本的包将useHeader改成了header
     .load(filePath)

2、使用自定义schema(该方法如果excel文件第一行不是所需数据,需手动限制读取的数据范围)

scala 复制代码
// 自定义schema
val schema = StructType(List(
    StructField("uid", StringType, nullable = true),
    StructField("name", StringType, nullable = true)
))
scala 复制代码
val df = spark.read
     .format("com.crealytics.spark.excel")
//     .format("excel") // 该版本的包直接写"excel"也可以
     .option("header", "false") // 使用自定义schema,所以设置为false
     .option("dataAddress", "'Sheet1'!A2:B2") // 限制读取的数据范围(也可以不加:B2就是取从A列往后的所有列)
     .schema(schema)
     .load(filePath)

ps:刚开始用的3.3.3_0.20.1这个版本的不可用,具体报啥错忘了,降到3.3.1_0.18.5该版本正常

相关推荐
czhc11400756637 小时前
LINUX 820 shell:shift,expect
linux·运维·excel
大霞上仙19 小时前
实现自学习系统,输入excel文件,能学习后进行相应回答
python·学习·excel
晴天彩虹雨20 小时前
存算分离与云原生:数据平台的新基石
大数据·hadoop·云原生·spark
CodeCraft Studio21 小时前
在 Python 中操作 Excel 文件的高效方案 —— Aspose.Cells for Python
python·ui·excel·报表·aspose·aspose.cells
更深兼春远1 天前
spark+scala安装部署
大数据·spark·scala
Techie峰1 天前
常见的 Bash 命令及简单脚本
chrome·bash·excel
小妖同学学AI1 天前
deepseek一键生成word和excel并一键下载
人工智能·word·excel·deepseek
哈哈很哈哈1 天前
Spark 运行流程核心组件(三)任务执行
大数据·分布式·spark
芒果很香1 天前
MFC中使用EXCEL的方法之一
excel·mfc
y1y1z1 天前
EasyExcel篇
java·excel