[Spark] 读取项目下resources/的文件

背景

这个spark程序要读取项目下的一些文件, 当我把这个项目打成jar包后, spark-submit到集群后执行

将文件作为资源文件打包到 JAR 中可以通过 Maven 或 sbt 这样的构建工具完成。以下是使用 Maven 的步骤:

  1. 首先,在你的 Maven 项目中创建一个目录(比如 src/main/resources)用来存放资源文件。

  2. 将需要打包的文件放入这个目录下
    src/main/resources/aaaaaa.txt

  3. 在 Maven 项目的 pom.xml 文件中,添加以下配置,告诉 Maven 应该将这些文件打包到 JAR 中:

xml 复制代码
<build>
    <resources>
        <resource>
            <directory>src/main/resources</directory>
            <includes>
                <include>**/*</include>
            </includes>
        </resource>
    </resources>
</build>
  1. 然后使用 mvn package 命令构建你的项目,Maven 会自动将资源文件打包到生成的 JAR 文件中。

在程序中,你可以使用 getResourceAsStream 方法来读取这些资源文件,例如:

scala 复制代码
val inputStream = getClass.getResourceAsStream("/aaaaaa.txt")
val fileContent = scala.io.Source.fromInputStream(inputStream).getLines().mkString("\n")

通过上述步骤,你就可以将文件作为资源文件打包到 JAR 中,并在程序中正常读取这些文件了。希望对你有所帮助!

相关推荐
keep__go1 小时前
zookeeper单机版安装
大数据·运维·zookeeper
serendipity_hky1 小时前
【微服务 - easy视频 | day04】Seata解决分布式事务
java·spring boot·分布式·spring cloud·微服务·架构
Serverless 社区2 小时前
助力企业构建 AI 原生应用,函数计算FunctionAI 重塑模型服务与 Agent 全栈生态
大数据·人工智能
回家路上绕了弯2 小时前
服务器大量请求超时?从网络到代码的全链路排查指南
分布式·后端
武子康2 小时前
大数据-150 Apache Druid 单机部署实战:架构速览、启动清单与故障速修
大数据·后端·apache
ApacheSeaTunnel3 小时前
结项报告完整版 | Apache SeaTunnel支持metalake开发
大数据·开源·数据集成·seatunnel·数据同步
白鲸开源3 小时前
结项报告完整版:Apache SeaTunnel 支持 Flink 引擎 Schema Evolution 功能
大数据·flink·开源
跨境卫士苏苏3 小时前
2026 亚马逊生存法则:放弃单点突破,转向多平台全域增长
大数据·人工智能·跨境电商·亚马逊·防关联
陈辛chenxin3 小时前
【大数据技术06】大数据技术
大数据·hadoop·分布式·python·信息可视化
yumgpkpm3 小时前
Hadoop在AI时代如何实现生态协同? CMP 7.13(或类 Cloudera CDP7.3 的 CMP 7.13 平台,如华为鲲鹏 ARM 版)
大数据·hadoop·elasticsearch·zookeeper·kafka·hbase·cloudera