Spring AI:Apache Tika 读取 Word、PPT 文档

历史文章

Spring AI:对接DeepSeek实战
Spring AI:对接官方 DeepSeek-R1 模型 ------ 实现推理效果
Spring AI:ChatClient实现对话效果
Spring AI:使用 Advisor 组件 - 打印请求大模型出入参日志
Spring AI:ChatMemory 实现聊天记忆功能
Spring AI:本地安装 Ollama 并运行 Qwen3 模型
Spring AI:提示词工程
Spring AI:提示词工程 - Prompt 角色分类(系统角色与用户角色)
Spring AI:基于 "助手角色" 消息实现聊天记忆功能
Spring AI:结构化输出 - 大模型响应内容
Spring AI:Docker 安装 Cassandra 5.x(限制内存占用)&& CQL
Spring AI:整合 Cassandra - 实现聊天消息持久化
Spring AI:多模态 AI 大模型
Spring AI:文生图:调用通义万相 AI 大模型
Spring AI:文生音频 - cosyvoice-V2
Spring AI:文生视频 - wanx2.1-i2v-plus
Spring AI:上手体验工具调用(Tool Calling)
Spring AI:整合 MCP Client - 调用高德地图 MCP 服务
Spring AI:搭建自定义 MCP Server:获取 QQ 信息
Spring AI:对接自定义 MCP Server
Spring AI:RAG 增强检索介绍
Spring AI:Docker 安装向量数据库 - Redis Stack
Spring AI:文档向量化存储与检索
Spring AI:提取 txt、Json、Markdown、Html、Pdf 文件数据,转换为 Document 文档

对于企业文档,Word 和 PPT 也是比较常见的格式,本文中,我们就尝试使用 Apache Tika 来读取它们并转换为 Document 文档。

Apache Tika 介绍

Apache Tika 是一个开源的 内容检测与分析工具包,用于从各种格式的文件(如 PDF, DOC/DOCX, PPT/PPTX, HTML等)中提取文本内容和元数据。它通过统一的 API 简化了文档解析的复杂性。

添加依赖

编辑 pom.xml, 添加 Tika 的包依赖:

java 复制代码
<!-- Tika -->
<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-tika-document-reader</artifactId>
</dependency>

添加完成后,记得刷新一下 Maven, 将包下载到本地仓库中。

读取 word

准备一个word文档,将其复制到 /resources/document 目录下:

接着,在 /reader 包下,新建一个 MyTikaWordReader 阅读器类:

java 复制代码
@Component
public class MyTikaWordReader {

    @Value("classpath:/document/xxxx.docx")
    private Resource resource;

    public List<Document> loadWord() {
        // 新建 TikaDocumentReader 阅读器
        TikaDocumentReader tikaDocumentReader = new TikaDocumentReader(resource);
        // 读取并转换为 Document 文档集合
        List<Document> documents = tikaDocumentReader.get();

        // 文档分块
        TokenTextSplitter splitter = new TokenTextSplitter(); // 不设置任何构造参数,表示使用默认设置
        return splitter.apply(documents);
    }
}

上述代码中,我们通过 TikaDocumentReader 阅读器,读取完 Word 文件后,并转换为 Document 文档集合。然后通过 TokenTextSplitter 分割器,将文档分割成块 (Chunks)。

完成上述步骤后,编辑 ReaderController 控制器,声明一个 /read/word 接口,代码如下:

java 复制代码
@RestController
@RequestMapping("/read")
public class ReaderController {

    // 省略...
    @Resource
    private MyTikaWordReader tikaWordReader;

    // 省略...

    @GetMapping(value = "/word")
    public List<Document> readWord() {
        return tikaWordReader.loadWord();
    }

}

重启后端项目,请求上述接口,如下图所示,可以看到成功将 Word 文件中的内容,转换为了对应 Document 集合:

读取 ppt

再来测试一下 Tika 读取 PPT 文件,准备一个ppt文件

复制到 /resources/document 目录:

同样的步骤,在 /reader 包下,新建一个 MyTikaPptReader 阅读器类:

java 复制代码
@Component
public class MyTikaPptReader {

    @Value("classpath:/document/xxxx.pptx")
    private Resource resource;

    public List<Document> loadPpt() {
        // 新建 TikaDocumentReader 阅读器
        TikaDocumentReader tikaDocumentReader = new TikaDocumentReader(resource);
        // 读取并转换为 Document 文档集合
        List<Document> documents = tikaDocumentReader.get();

        // 文档分块
        // 使用自定义设置
        TokenTextSplitter splitter = new TokenTextSplitter(1000, 400, 10, 5000, true);
        return splitter.apply(documents);
    }
}

上述代码中,和读取 Word 文件逻辑不同,TokenTextSplitter 分割器配置了自定义参数,构造器各项参数作用如下:

  • defaultChunkSize: 每个文本块的目标大小,以 Token 令牌数为单位(默认:800 tokens)。
  • minChunkSizeChars: 每个文本块的最小字符大小(默认:350 characters)。
  • minChunkLengthToEmbed: 要包含的块的最小长度(默认:5)。
  • maxNumChunks: 从一个文本生成的最大块数(默认:10000)。
  • keepSeparator: 是否在块中保留分隔符(如换行符)(默认:true)。

完成上述步骤后,编辑 ReaderController 控制器,声明一个 /read/ppt 接口,代码如下:

java 复制代码
@RestController
@RequestMapping("/read")
public class ReaderController {

    // 省略...
    
    @Resource
    private MyTikaPptReader tikaPptReader;

    // 省略...

    @GetMapping(value = "/ppt")
    public List<Document> readPpt() {
        return tikaPptReader.loadPpt();
    }

}

重启后端项目,浏览器请求上述接口,可以看到 PPT 也能够被读取并转换为 Document 文档集合:

相关推荐
自不量力的A同学10 小时前
Solon AI v3.9 正式发布:全能 Skill 爆发
java·网络·人工智能
一枕眠秋雨>o<10 小时前
从抽象到具象:TBE如何重构AI算子的编译哲学
人工智能
xiaobaibai15310 小时前
决策引擎深度拆解:AdAgent 用 CoT+RL 实现营销自主化决策
大数据·人工智能
island131410 小时前
CANN ops-nn 算子库深度解析:神经网络核心计算的硬件映射、Tiling 策略与算子融合机制
人工智能·深度学习·神经网络
冬奇Lab10 小时前
一天一个开源项目(第14篇):CC Workflow Studio - 可视化AI工作流编辑器,让AI自动化更简单
人工智能·开源·编辑器
是小蟹呀^10 小时前
从稀疏到自适应:人脸识别中稀疏表示的核心演进
人工智能·分类
云边有个稻草人10 小时前
CANN ops-nn:筑牢AIGC的神经网络算子算力底座
人工智能·神经网络·aigc·cann
island131410 小时前
CANN Catlass 算子模板库深度解析:高性能 GEMM 架构、模板元编程与融合算子的显存管理策略
人工智能·神经网络·架构·智能路由器
结局无敌10 小时前
从算子到生态:cann/ops-nn 如何编织一张高性能AI的协作之网
人工智能
chaser&upper10 小时前
击穿长文本极限:在 AtomGit 破译 CANN ops-nn 的注意力加速密码
人工智能·深度学习·神经网络