import org.apache.spark.{SparkConf, SparkContext}
object DataFilter {
// 思路
// 1. 读取数据,读入文本文件
// 2. 对于文件中的每一行
// 拆分出年龄split(",")(1)
// 判断是不是数字,是,就保留记录"45","abc" (正则表达式 \d+)
// 3. 把过滤之后的内容,保存到文件saveAsTexttFile()
def main(args: Array[String]): Unit = {
// 创建spark
val conf = new SparkConf().setAppName("DataFilter").setMaster("local[*]")
val sc = new SparkContext(conf)
val rdd = sc.textFile("data/file.txt")
// 过滤之后的rdd
var rdd1 = rdd.filter(line => {
// 拆分出年龄
val age = line.split(",")(1)
// 判断年龄是否是数字
println(age)
age.matches("\\d+")
})
//将所有的分区数据合并成一个分区
rdd1 = rdd1.coalesce(1)
//保存到文件
rdd1.saveAsTextFile("data/file1.txt")
}
}
spark数据清洗
只因只因爆2025-05-16 13:40
相关推荐
guoji778822 分钟前
2026年Gemini 3 Pro vs 豆包2.0深度评测:海外顶流与国产黑马谁更强?TDengine (老段)23 分钟前
TDengine IDMP 组态面板 —— 工具箱网络工程小王43 分钟前
【大数据技术详解】——Kibana(学习笔记)zxsz_com_cn2 小时前
设备预测性维护方案设计的关键要素唐天下闻化3 小时前
连锁数字化改造8成翻车?三维避坑实录坚持学习前端日记5 小时前
从零开始构建小说推荐智能体 - Coze 本地部署完整教程IDIOT___IDIOT5 小时前
关于 git 进行版本管理的时候 gitignore 写入忽略规则而不生效的问题不想看见4045 小时前
Git 误删急救手册少许极端5 小时前
消息队列-RabbitMQ(1)