Spark处理过程--案例数据清洗

(一)需求说明

假设你有一个包含用户信息的文本文件,每行格式为 姓名,年龄,性别,需要清洗掉年龄为空或者非数字的行。

以下是 10 条符合上述示例中数据格式(姓名,年龄,性别)的测试数据,包含了一些可能需要清洗掉的无效数据,你可以将其保存为一个文本文件,用于测试上面的数据清洗程序。

【教师展示要清洗的数据,请同学们观察,并回答应该要清洗掉哪些数据?】

张三,25,男

李四,,女

王五,30,男

赵六,a,女

孙七,35,男

周八,40,女

吴九,abc,男

郑十,45,女

王十,50,男

李二,55,女

这里面:"李四" 的年龄为空,"赵六" 和 "吴九" 的年龄不是有效的数字,在执行数据清洗程序时,这些行应该会被过滤掉。

(二)思路分析

好了,问题描述清楚了,下面我们来看看实现的思路。

【老师提问,并点名找人回答】:实现这个问题的思路是什么?

【总结思路,并现场写下来】

读入文件

对每一行数据进行分析

字段拆分,拆分出年龄这个字段

判断

如果它不是数字或者缺失,则忽略这条数据

否则保存

(三)难点突破

好了,思路有了,现在我们看看里边涉及到的具体功能要怎么实现。

【老师列出功能点,并请同学回答,如何实现如下功能】:

如何读入txt文件?

如何拆分出一行中的年龄?

如何使用过滤算子(filter)?

如何判断是否是整数?

【老师总结要点】

读入txt文件。 val lines = sc.textFile(inputFile)

对拆分出一行中的年龄。val fields = line.split(",") fields(0)

过滤算子中,函数返回为false,就会被过滤掉,函数返回为true,就会被保留下来。

使用正则表达式。/\d/

经过了前面的分析,下面我们来开始写代码来实现功能。

(四)功能实现

【老师边讲解,边演示】

创建新的maven项目。

创建input文件夹,在input下新建记事本文件,内容就是前面的实例数据。

在src下创建新的scala文件,开始写功能代码。

【老师一边写整体的注释,一边引导同学回答】

(五)参考代码

import org.apache.spark.{SparkConf, SparkContext}

object DataFilter {

//思路

//1.读取数据,读入文本文件

//2.对于文件中的每一行

//拆分出年龄,判断是不是数字,是就保留记录"45","abc"(正则表达式\d+)

//3.把过滤之后的内容,保存到文件saveAsTextFile

def main(args: Array[String]): Unit = {

//创建Spark

val conf = new SparkConf().setAppName("DataFilter").setMaster("local[*]")

val sc = new SparkContext(conf)

val rdd = sc.textFile("input/file.txt")

//过滤之后的rdd

var rdd1 = rdd.filter(line => {

//拆分年龄

val age = line.split(",")(1)

//判断是否是数字

println(age)

// age.matches("\\d+")//返回值是一个boolean

true

})

//将所有的分区的数据合并到一个分区

rdd1 = rdd1.coalesce(1)

//保存到文件中

rdd1.saveAsTextFile("output")

}

}

可以使用coalesce(1)这个方法可以让结果全部保存在一个文件中。

val singlePartitionRDD = cleanedLines.coalesce(1)

// 保存清洗后的数据到文件

val outputPath = "path/to/your/output/file.txt"

singlePartitionRDD.saveAsTextFile(outputPath)

// 停止 SparkContext

sc.stop()

相关推荐
Java战神1 分钟前
Hadoop
大数据·hadoop·分布式
望获linux26 分钟前
【实时Linux实战系列】实时系统的可观测性:Prometheus 与 Grafana 集成
大数据·linux·服务器·开发语言·网络·操作系统
-雷阵雨-1 小时前
MySQL——数据库入门指南
数据库·mysql
玄妙尽在颠倒间1 小时前
SQL中的四大核心语言:DQL、DML、DDL、DCL
大数据·数据库
就叫飞六吧2 小时前
DataX适合全量同步和简单的增量场景
mysql
周杰伦_Jay3 小时前
【Git操作详解】Git进行版本控制与管理,包括分支,提交,合并,标签、远程仓库查看
大数据·ide·git·科技·分类·github
xhbh6663 小时前
【实战避坑】MySQL自增主键(AUTO_INCREMENT)全解:从锁机制、间隙问题到分库分表替代方案
android·数据库·mysql·mysql自增主键
lifallen3 小时前
从Apache Doris 学习 HyperLogLog
java·大数据·数据仓库·算法·apache
DolphinScheduler社区4 小时前
# 3.1.8<3.2.0<3.3.1,Apache DolphinScheduler集群升级避坑指南
java·大数据·开源·apache·任务调度·海豚调度
智海观潮6 小时前
HBase高级特性、rowkey设计以及热点问题处理
大数据·hadoop·hbase