Ollama 安装 DeepSeek 与 Spring Boot 集成指南

Ollama 是一个强大的工具,用于运行和部署各种大型语言模型(LLM)。Spring Boot 是一个流行的 Java 框架,用于快速开发基于 Spring 的应用。本指南将向你展示如何在 Windows 系统上安装 Ollama,并使用 Spring Boot 集成 Ollama 以实现简单的聊天功能。

安装 Ollama

前往 Ollama 官方下载页面 下载适合 Windows 系统的版本。安装过程中只需按照默认选项进行即可,Ollama 的默认端口为 11434。

安装完成后,点击 查看模型列表 并下载所需的模型,以 deepseek-r1:1.5b 模型为例:

shell 复制代码
# 安装 deepseek-r1:1.5b 模型
ollama run deepseek-r1:1.5b

你可以使用以下命令查看已安装的模型:

shell 复制代码
# 查看已安装的模型列表
ollama list

安装完成后,你可以通过控制台(我这里使用的windows)与模型进行简单对话。如下图所示:

springboot集成

在你的 Spring Boot 项目中添加以下依赖:

xml 复制代码
<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
    <version>0.8.1</version>
</dependency>

application.yml 配置文件中添加以下内容:

yaml 复制代码
spring:
  ai:
    ollama:
      base-url: http://localhost:11434 # Ollama 服务器地址
      chat:
        model: deepseek-r1:1.5b # 使用的模型名称
        enabled: true

接下来,你可以创建一个简单的测试控制器来调用 Ollama 模型:

java 复制代码
@RequestMapping("/chat")
@RestController
public class TestController {

    private final ChatClient chatClient;

    public TestController(ChatClient.Builder chatClient) {
        this.chatClient = chatClient.build();
    

    @PostMapping
    public Flux<String> chat(@RequestParam String message) {
        try {
            return chatClient.prompt(message).stream().content();
        } catch (Exception e) {
            throw new RuntimeException(e);
        }
    }
}
相关推荐
hweiyu005 分钟前
Maven 私库
java·maven
Super Rookie13 分钟前
Spring Boot 企业项目技术选型
java·spring boot·后端
来自宇宙的曹先生16 分钟前
用 Spring Boot + Redis 实现哔哩哔哩弹幕系统(上篇博客改进版)
spring boot·redis·后端
写不出来就跑路19 分钟前
Spring Security架构与实战全解析
java·spring·架构
expect7g37 分钟前
Flink-Checkpoint-1.源码流程
后端·flink
00后程序员43 分钟前
Fiddler中文版如何提升API调试效率:本地化优势与开发者实战体验汇总
后端
ZeroNews内网穿透1 小时前
服装零售企业跨区域运营难题破解方案
java·大数据·运维·服务器·数据库·tcp/ip·零售
用户8122199367221 小时前
C# .Net Core零基础从入门到精通实战教程全集【190课】
后端
bobz9651 小时前
FROM scratch: docker 构建方式分析
后端
sleepcattt1 小时前
Spring中Bean的实例化(xml)
xml·java·spring