我们已经完成
1、本地模型搭建 DeepSeek-R1 本地部署 - 十分钟搞定
2、spring ai 调本地大模型SpringAI + DeepSeek本地大模型应用开发-聊天机器人
我们发现,本地模型受限于本地服务器配置,调用起来响应很慢体验并不好,那么各大厂出了那么多酷炫的大模型我们为啥不用起来呢,lets do it
本文介绍一下spring ai访问阿里百炼大模型,依旧5分钟搞定
1. 申请apiKey
2. 引pom依赖
3. yml模型配置
4. 使用模型工具
1. 申请apiKey
使用人家的模型得有访问凭证,就跟调任何三方开放平台API一样,直接去
大模型服务平台百炼控制台创建一个就行了

2. 引pom依赖
各大模型默认支持open AI的规范,spring ai 已经帮我们封装好了,引就完事了
<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>3. 配置yml模型地址
跟使用本地ollama一样,我们要配置上模型信息,供spring启动时读取配置文件完成自动装配
- 
ollama的配置不用管 
- 
新增openai的配置 
- 
模型服务地址照抄就行了 
- 
apiKey用你创建的 
- 
模型我用的通义千问-Max-Latest spring: 
 ai:
 ollama:
 base-url: http://localhost:11434
 chat:
 model: deepseek-r1:7b
 openai:
 base-url: https://dashscope.aliyuncs.com/compatible-mode
 api-key: 替换成你刚创建的apiKey
 chat:
 options:
 model: qwen-max-latest
模型广场里有好多模型,随便玩就行了,模型名称配对了就行

4. 使用模型工具
上面pom依赖添加完,刷新maven依赖,openai模型相关内容就拉到本地仓库了,开用就完事了,老样子:
- 
定义一个聊天客户端bean 
- 
将openai模型初始化进去 
- 
指定系统角色,这个随意,不指定就是模型默认系统角色 
- 
chatMemory会话记忆先不用管 @Bean public ChatClient openAiClient(OpenAiChatModel model,ChatMemory chatMemory) { return ChatClient .builder(model) .defaultSystem("你是一只功夫熊猫,请以功夫熊猫的身份回答问题") .defaultAdvisors( new MessageChatMemoryAdvisor(chatMemory) ) .build(); }
controller 不变
    @Resource
    private ChatClient openAiClient;
    
    @RequestMapping(value = "/chat",produces = "text/html;charset=utf-8")
    public Flux<String>  chat(String prompt,String chatId) {
        return openAiClient.prompt()
                .user(prompt)
                .advisors(advisorSpec -> advisorSpec.param(AbstractChatMemoryAdvisor.CHAT_MEMORY_CONVERSATION_ID_KEY,chatId))
                .stream()
                .content();
    }开始对话吧,页面源码在上一篇SpringAI + DeepSeek本地大模型应用开发-聊天机器人,啥也不用动,直接运行

还得是大厂模型啊,丝滑~
接下来我们介绍大模型+传统应用的开发,怎么让大模型调本地项目接口呢。。。