Ollama 安装 DeepSeek 与 Spring Boot 集成指南

Ollama 是一个强大的工具,用于运行和部署各种大型语言模型(LLM)。Spring Boot 是一个流行的 Java 框架,用于快速开发基于 Spring 的应用。本指南将向你展示如何在 Windows 系统上安装 Ollama,并使用 Spring Boot 集成 Ollama 以实现简单的聊天功能。

安装 Ollama

前往 Ollama 官方下载页面 下载适合 Windows 系统的版本。安装过程中只需按照默认选项进行即可,Ollama 的默认端口为 11434。

安装完成后,点击 查看模型列表 并下载所需的模型,以 deepseek-r1:1.5b 模型为例:

shell 复制代码
# 安装 deepseek-r1:1.5b 模型
ollama run deepseek-r1:1.5b

你可以使用以下命令查看已安装的模型:

shell 复制代码
# 查看已安装的模型列表
ollama list

安装完成后,你可以通过控制台(我这里使用的windows)与模型进行简单对话。如下图所示:

springboot集成

在你的 Spring Boot 项目中添加以下依赖:

xml 复制代码
<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
    <version>0.8.1</version>
</dependency>

application.yml 配置文件中添加以下内容:

yaml 复制代码
spring:
  ai:
    ollama:
      base-url: http://localhost:11434 # Ollama 服务器地址
      chat:
        model: deepseek-r1:1.5b # 使用的模型名称
        enabled: true

接下来,你可以创建一个简单的测试控制器来调用 Ollama 模型:

java 复制代码
@RequestMapping("/chat")
@RestController
public class TestController {

    private final ChatClient chatClient;

    public TestController(ChatClient.Builder chatClient) {
        this.chatClient = chatClient.build();
    

    @PostMapping
    public Flux<String> chat(@RequestParam String message) {
        try {
            return chatClient.prompt(message).stream().content();
        } catch (Exception e) {
            throw new RuntimeException(e);
        }
    }
}
相关推荐
Johny_Zhao1 小时前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
橙序员小站4 小时前
Agent Skill 是什么?一文讲透 Agent Skill 的设计与实现
前端·后端
怒放吧德德4 小时前
Netty 4.2 入门指南:从概念到第一个程序
java·后端·netty
雨中飘荡的记忆6 小时前
大流量下库存扣减的数据库瓶颈:Redis分片缓存解决方案
java·redis·后端
开心就好20257 小时前
UniApp开发应用多平台上架全流程:H5小程序iOS和Android
后端·ios
悟空码字7 小时前
告别“屎山代码”:AI 代码整洁器让老项目重获新生
后端·aigc·ai编程
小码哥_常7 小时前
大厂不宠@Transactional,背后藏着啥秘密?
后端
奋斗小强7 小时前
内存危机突围战:从原理辨析到线上实战,彻底搞懂 OOM 与内存泄漏
后端
小码哥_常8 小时前
Spring Boot接口防抖秘籍:告别“手抖”,守护数据一致性
后端
心之语歌8 小时前
基于注解+拦截器的API动态路由实现方案
java·后端