Spring AI Alibaba示例代码(其他平台模型及vllm-chat 400错误解决)

上一章我们初识了 Spring AI Alibaba 的 helloworld 模块,完成了环境搭建与快速入门,并成功调用了阿里云百炼平台的模型。那么有个疑问,之前私有化部署的时候使用过ollama、vllm部署,调用和目前一致吗?本章将带大家深入样例代码,一探究竟!

本章将探究spring-ai-alibaba-chat-example模块,该模块提供了常见的大模型平台dashscope(阿里云百炼)、deepseel、ollama、openai、qwq(阿里云百炼)、vllm(openAI标准)、zhipuai(智谱)

1. dashscope-chat

我们登录阿里云百炼平台申请api-key(有免费提供的token),直接替换application.yml里面的api-key。按照dashscope-chat.http脚本里面提供的地址访问controller接口,即可和AI模型交互。
spring ai alibaba提供了DashScopeChatOptions用来初始化ChatClient和模型交互。 2. deepseek-chat

我们登录deepseek,进入APi开放平台,充值1元(结合自己实力)生成apikey后直接替换application.yml里面的api-key。按照deepseek-chat.http脚本里面提供的地址访问controller接口,即可和AI模型交互。
spring ai提供了DeepSeekChatModel、DeepSeekChatOptions用来和模型交互。 3. vllm-chat 之前ollama私有化部署后续切换成vllm部署,因此直接测试vllm模型,在此模块遇到么阻塞很久的问题,一直没测试成功

按照vllm部署的参数配置了application.yml,启动后一直报错

less 复制代码
400 - {"object":"error","message":"[{'type': 'missing', 'loc': ('body',), 'msg': 'Field required', 'input': None}]"}

问题原因:Spring AI 默认使用基于 WebClient 或 RestTemplate 的 HTTP 客户端,以分块编码(chunked) 发送请求体。 vLLM 服务端无法解析分块编码的请求体,导致报错。

解决办法:完全禁用 Spring WebClient 的分块传输编码(chunked transfer encoding),通过底层 Reactor Netty 客户端进行配置。

xml 复制代码
<dependency>
    <groupId>io.projectreactor.netty</groupId>
    <artifactId>reactor-netty-http</artifactId>
</dependency>
kotlin 复制代码
package com.alibaba.cloud.ai.example.chat.vllm.conf;

import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.http.client.reactive.ReactorClientHttpConnector;
import org.springframework.web.reactive.function.client.WebClient;

import reactor.netty.http.client.HttpClient;

@Configuration
public class WebClientConfig {

    @Bean
    public WebClient webClient() {
        // 创建并配置 Netty 的 HttpClient
        HttpClient httpClient = HttpClient.create()
                .headers(headers -> headers
                        .remove("Transfer-Encoding")  // 显式移除分块头
                        .set("Connection", "close")   // 强制关闭连接避免分块
                )
                .compress(false);  // 禁用压缩

        return WebClient.builder()
                .clientConnector(new ReactorClientHttpConnector(httpClient))
                .build();
    }
}

通过 spring-ai-alibaba-chat-example 模块的实践,我们成功实现了第三方大模型平台的调用集成,并重点解决了 vLLM 私有化部署模型 的常见调用错误问题。

相关推荐
一只爱撸猫的程序猿5 小时前
使用Spring AI配合MCP(Model Context Protocol)构建一个"智能代码审查助手"
spring boot·aigc·ai编程
Jimmy6 小时前
AI 代理是什么,其有助于我们实现更智能编程
前端·后端·ai编程
星际码仔10 小时前
停止无脑“Vibe”!一行命令,让你的Claude变身编程导师、结对伙伴
ai编程·claude
程序员老刘11 小时前
Flutter 3.35 更新要点解析
flutter·ai编程·客户端
mortimer13 小时前
一次与“顽固”外部程序的艰难交锋:subprocess 调用exe踩坑实录
windows·python·ai编程
程序员X小鹿1 天前
腾讯出手!重磅发布CloudBase AI CLI,集Claude Code等5大AI CLI于一体!从开发到部署!(附教程)
ai编程
狠活科技1 天前
平替 Claude Code,API接入 GPT-5,Codex CLI 国内直接使用教程
chatgpt·ai编程·oneapi
麦兜*1 天前
【swift】SwiftUI动画卡顿全解:GeometryReader滥用检测与Canvas绘制替代方案
服务器·ios·swiftui·android studio·objective-c·ai编程·swift
Jooolin2 天前
【教你一招】反汇编有啥用?
c++·ai编程·汇编语言
谦行2 天前
使用 Claude Code Subagents 组建 AI Coding 专家顾问团
ai编程·claude