Ollama 安装 DeepSeek 与 Spring Boot 集成指南

Ollama 是一个强大的工具,用于运行和部署各种大型语言模型(LLM)。Spring Boot 是一个流行的 Java 框架,用于快速开发基于 Spring 的应用。本指南将向你展示如何在 Windows 系统上安装 Ollama,并使用 Spring Boot 集成 Ollama 以实现简单的聊天功能。

安装 Ollama

前往 Ollama 官方下载页面 下载适合 Windows 系统的版本。安装过程中只需按照默认选项进行即可,Ollama 的默认端口为 11434。

安装完成后,点击 查看模型列表 并下载所需的模型,以 deepseek-r1:1.5b 模型为例:

shell 复制代码
# 安装 deepseek-r1:1.5b 模型
ollama run deepseek-r1:1.5b

你可以使用以下命令查看已安装的模型:

shell 复制代码
# 查看已安装的模型列表
ollama list

安装完成后,你可以通过控制台(我这里使用的windows)与模型进行简单对话。如下图所示:

springboot集成

在你的 Spring Boot 项目中添加以下依赖:

xml 复制代码
<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
    <version>0.8.1</version>
</dependency>

application.yml 配置文件中添加以下内容:

yaml 复制代码
spring:
  ai:
    ollama:
      base-url: http://localhost:11434 # Ollama 服务器地址
      chat:
        model: deepseek-r1:1.5b # 使用的模型名称
        enabled: true

接下来,你可以创建一个简单的测试控制器来调用 Ollama 模型:

java 复制代码
@RequestMapping("/chat")
@RestController
public class TestController {

    private final ChatClient chatClient;

    public TestController(ChatClient.Builder chatClient) {
        this.chatClient = chatClient.build();
    

    @PostMapping
    public Flux<String> chat(@RequestParam String message) {
        try {
            return chatClient.prompt(message).stream().content();
        } catch (Exception e) {
            throw new RuntimeException(e);
        }
    }
}
相关推荐
一只叫煤球的猫4 分钟前
🕰 一个案例带你彻底搞懂延迟双删
java·后端·面试
最初的↘那颗心5 分钟前
Flink Stream API 源码走读 - print()
java·大数据·hadoop·flink·实时计算
冒泡的肥皂16 分钟前
MVCC初学demo(一
数据库·后端·mysql
颜如玉1 小时前
ElasticSearch关键参数备忘
后端·elasticsearch·搜索引擎
JH30731 小时前
Maven的三种项目打包方式——pom,jar,war的区别
java·maven·jar
带刺的坐椅2 小时前
轻量级流程编排框架,Solon Flow v3.5.0 发布
java·solon·workflow·flow·solon-flow
zhayujie2 小时前
RAG优化实战 - LinkAI智能体平台的知识库升级之路
ai·大模型·agent·知识库·rag
卡拉叽里呱啦2 小时前
缓存-变更事件捕捉、更新策略、本地缓存和热key问题
分布式·后端·缓存
David爱编程2 小时前
线程调度策略详解:时间片轮转 vs 优先级机制,面试常考!
java·后端
码事漫谈3 小时前
C++继承中的虚函数机制:从单继承到多继承的深度解析
后端