Spark处理方法_提取文件名中的时间

需求描述

通过读取目录下的类似文件的datapath路径的文件名及文件内容,需要将读取的每一个文件的文件名日期解析出来,并作为读取当前文件内容递归读取当前文件一个df列,列名为"时间";后面就是读一个文件,解析一下时间,将时间添加到所读文件的dataframe中,相当于给每一个读的文件内容添加了当前读取文件解析出来的时间列,以此递归循环。读取每一个文件后都要加上一列此文件解析出来的时间,形式如下

复制代码
  Reading file: hdfs://master.test.com:8020/data/测试文件/_L_20231025095119.txt
  Reading file: hdfs://master.test.com:8020/data/测试文件/_L_20231026095119.txt
  Reading file: hdfs://master.test.com:8020/data/测试文件/_L_20231027095119.txt

内容形式如下

复制代码
  文件名:L_20231025095119.txt
  文件内容:id,imsi,lon,lat
  ......
  文件名:L_20231026095119.txt
  文件内容:id,imsi,lon,lat
  ......
  文件名:L_20231027095119.txt
  文件内容:id,imsi,lon,lat
  ......
  我要的文件内容输出形式为
  id,imsi,lon,lat,20231025095119
  ...
  id,imsi,lon,lat,20231026095119
  ...
  id,imsi,lon,lat,20231027095119
  ......

代码片段:

Scala 复制代码
...
...
//打印读取目录下的文件名
println("文件datapath路径")
if (dataPath.isEmpty) {
  println("No files to read.")
} else {
  for (path <- dataPath) {
    println(s"Reading file: $path")
  }
}
// 解析时间字段
// 提取文件名中的时间部分,格式为:"_L_20231111095119.txt" 中的 "20231111095119"
// 由于文件名是按目录读取的,因此要变成字符串形式并以逗号隔开
val filePath = dataPath.mkString(",")
val fileName = filePath.split("/").last.stripSuffix(".csv")
val timeStr = fileName.split("_").last
val year = timeStr.substring(0, 4)
val month = timeStr.substring(4, 6)
val day = timeStr.substring(6, 8)
val hour = timeStr.substring(8, 10)
val minute = timeStr.substring(10, 12)
val second = timeStr.substring(12, 14)
val time = s"$year-$month-$day $hour:$minute:$second"
println(time)
// 输出时间类似:2023-03-01 09:51:19
...
...
val rddAll = if(dataPath.isEmpty){
    sc.emptyRDD[(LongWritable,Text)]
} else {
    sc.newAPIHadoopRDD(jobConf,classOf[CombineTextInputFormat],classOf[LongWritable],classOf[Text])
    
}

val firstLine = {
    if(rddAll.take(1).length == 0){
        null
    } else {
        val firstLineTemp = rddAll.first()._2
        getAfterSplitArray(delimiter,new String(firstLineTemp.getBytes,0,firstLineTemp.getLength,encoding))
    }
}
...
...
val outDF = sqlc.createDataFrame(outRDD,schema)
//2修改
val outDF1 = outDF.withColumn("时间", lit(time))
outDF1.show()
相关推荐
朗心心理20 小时前
朗心科技:以数智化引领心理健康服务新标杆
大数据·人工智能·科技·心理健康·朗心科技·数智化心理育人·一站式心理中心建设
无忧智库20 小时前
破局与重构:大型集团化协同管理平台的全景式深度解构(PPT)
大数据
码云数智-大飞1 天前
进程、线程与协程:并发模型的演进与 Go 语言的 GMP 革命
大数据
XiaoMu_0011 天前
基于大数据的糖尿病数据分析可视化
大数据·数据挖掘·数据分析
阿里云大数据AI技术1 天前
Celeborn 如何让 EMR Serverless Spark 的 Shuffle 舒心、放心、安心
大数据·spark
AI营销快线1 天前
AI营销获客难?原圈科技深度解析SaaS系统增长之道
大数据·人工智能
星幻元宇VR1 天前
VR环保学习机|科技助力绿色教育新模式
大数据·科技·学习·安全·vr·虚拟现实
CryptoPP1 天前
开发者指南:构建实时期货黄金数据监控系统
大数据·数据结构·笔记·金融·区块链
ZGi.ai1 天前
生产级 Agent 编排 从单一 LLM 调用到多智能体工作流的工程设计
大数据·数据库·人工智能