欢迎访问我的GitHub
这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos
LangChain4j实战全系列链接
- 准备工作
- 极速开发体验
- 细说聊天API
- 集成到spring-boot
- 图像模型
- 聊天记忆,低级API版
- 聊天记忆,高级API版
- 响应流式传输
- 高级API(AI Services)实例的创建方式
- 结构化输出之一,用提示词指定输出格式
- 结构化输出之二,function call
- 结构化输出之三,json模式
- 函数调用,低级API版本
关于函数调用
- 随着学习的深入,咱们逐渐开始接触到各类重要能力了,函数调用就是其中的一个
- 可以按照以下六步来理解函数调用到底是什么:
- 开发者写一个本地方法A
- 第一次和LLM对话,把提示词和方法A的签名都给到LLM
- LLM返回信息中,会说明用什么参数去调用A
- 按照LLM返回的参数去调用A
- 把调用A的返回值返回给LLM
- LLM根据这个返回值来生成最终的结果,并返回给用户
-
如果是低级API方案,步骤2到5由开发者自己写代码实现,如果是高级API方案,步骤2到5由LangChain4j代为执行
-
注意重点:用户最终拿到的不是本地方法的结果,而是LLM根据本地方法的结果生成的内容
-
完整时序图如下
本地天气工具 大模型 LangChain4j 客户端代码 用户 本地天气工具 大模型 LangChain4j 客户端代码 用户 "查一下深圳的天气" 构建请求 携带 toolSpecifications(天气工具) 1️⃣ 请求1 messages=[UserMessage("查一下深圳的天气")] tools=[天气工具Schema] 判断需要调用天气工具 返回 tool_call {"name":"getWeather","arguments":{"city":"深圳"}} 反射调用 getWeather("深圳") 返回结果 {"temp":28,"unit":"°C","desc":"多云"} 2️⃣ 请求2 messages=[ UserMessage("查一下深圳的天气"), ToolExecutionRequest(...), ToolExecutionResult({"temp":28...}) ] 结合工具结果生成自然语言回答 返回 AssistantMessage "深圳当前气温28°C,多云" 封装为 String/对象 "深圳当前气温28°C,多云"
- 其实在《结构化输出之二,function call》一文咱们已经体验过函数调用了,不过那时的重点是让LLM按照函数定义把返回内容转为JSON,至于函数的结果并不关心,以至于本地方法直接返回null了

- 而今天咱们要学的是让本地方法实实在在的执行,返回有效的结果给LLM,再看用户真正收到的响应和这个本地方法的结果有啥区别
本篇概览
-
本篇要实战的是低级API版本,也就是说两次LLM对话还有每次LLM响应的处理,都是咱们自己编码实现的,如下图红框中的部分

-
比起高级API版本确实要多做很多事情,优点是全流程自己掌控,适合需要深度定制的场景
-
本次实战有关的业务,就选天气预报吧,这种实时数据LLM是没有的,所以用自定义函数获取实时天气数据,再走函数调用的方式返回给用户,是个不错的例子
-
为了观察和LLM通信的详情,咱们还会把每次和LLM交互的详细数据打印出来用
准备工作:如何获取实时天气数据
- 有多种方式可以从公网查询到天气信息,我这里选择了接口盒子网站提供的http服务,网站情况如下图

- 接口盒子网站提供的天气服务是免费的,但是需要您自己去注册一个账号,得到属于您自己的开发者ID和开发者KEY
- 有了上述两个关键信息,咱们就能通过拼接URL来查询某地的天气情况了,收到的返回值是个JSON,为了方便处理,咱们为此JSON准备一个对应的数据结构
- 好了,该说的都说清楚了,接下来开始编码吧
源码下载(觉得作者啰嗦的,直接在这里下载)
- 如果您只想快速浏览完整源码,可以在GitHub下载代码直接运行,地址和链接信息如下表所示(https://github.com/zq2599/blog_demos):
| 名称 | 链接 | 备注 |
|---|---|---|
| 项目主页 | https://github.com/zq2599/blog_demos | 该项目在GitHub上的主页 |
| git仓库地址(https) | https://github.com/zq2599/blog_demos.git | 该项目源码的仓库地址,https协议 |
| git仓库地址(ssh) | git@github.com:zq2599/blog_demos.git | 该项目源码的仓库地址,ssh协议 |
- 这个git项目中有多个文件夹,本篇的源码在langchain4j-tutorials文件夹下,如下图红色箭头所示:

编码:父工程调整
- 《准备工作》中创建了整个《LangChain4j实战》系列代码的父工程,本篇实战会在父工程下新建一个子工程,所以这里要对父工程的pom.xml做少量修改
- modules中增加一个子工程,如下图黄框所示

编码:新增子工程
- 新增名为tools-low-level的子工程
- langchain4j-totorials目录下新增名tools-low-level为的文件夹
- tools-low-level文件夹下新增pom.xml,内容如下
xml
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<parent>
<groupId>com.bolingcavalry</groupId>
<artifactId>langchain4j-totorials</artifactId>
<version>1.0-SNAPSHOT</version>
</parent>
<artifactId>tools-low-level</artifactId>
<packaging>jar</packaging>
<dependencies>
<!-- Lombok -->
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<optional>true</optional>
</dependency>
<!-- Spring Boot Starter -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
</dependency>
<!-- Spring Boot Web -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<!-- Spring Boot Test -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<!-- JUnit Jupiter Engine -->
<dependency>
<groupId>org.junit.jupiter</groupId>
<artifactId>junit-jupiter-engine</artifactId>
<scope>test</scope>
</dependency>
<!-- Mockito Core -->
<dependency>
<groupId>org.mockito</groupId>
<artifactId>mockito-core</artifactId>
<scope>test</scope>
</dependency>
<!-- Mockito JUnit Jupiter -->
<dependency>
<groupId>org.mockito</groupId>
<artifactId>mockito-junit-jupiter</artifactId>
<scope>test</scope>
</dependency>
<!-- LangChain4j Core -->
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-core</artifactId>
</dependency>
<!-- LangChain4j OpenAI支持(用于通义千问的OpenAI兼容接口) -->
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-open-ai</artifactId>
</dependency>
<!-- 官方 langchain4j(包含 AiServices 等服务类) -->
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j</artifactId>
</dependency>
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-community-dashscope</artifactId>
</dependency>
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-spring-boot-starter</artifactId>
</dependency>
<!-- 日志依赖由Spring Boot Starter自动管理,无需单独声明 -->
</dependencies>
<build>
<plugins>
<!-- Spring Boot Maven Plugin -->
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<version>3.3.5</version>
<executions>
<execution>
<goals>
<goal>repackage</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
- 在langchain4j-totorials/tools-low-level/src/main/resources新增配置文件application.properties,内容如下,主要是三个模型的配置信息,记得把your-api-key换成您自己的apikey,另外由于用到了接口盒子的服务查询,相关的ulr模板、用户id、用户key也在这里面配置好
properties
# Spring Boot 应用配置
server.port=8080
server.servlet.context-path=/
# LangChain4j 使用OpenAI兼容模式配置通义千问模型
# 注意:请将your-api-key替换为您实际的通义千问API密钥
langchain4j.open-ai.chat-model.api-key=your-api-key
# 通义千问模型名称
langchain4j.open-ai.chat-model.model-name=qwen3-max
# 阿里云百炼OpenAI兼容接口地址
langchain4j.open-ai.chat-model.base-url=https://dashscope.aliyuncs.com/compatible-mode/v1
# 日志配置
logging.level.root=INFO
logging.level.com.bolingcavalry=DEBUG
logging.pattern.console=%d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n
# 应用名称
spring.application.name=tools-low-level
# 调用接口盒子的接口查询天气,这里是地址
weather.tools.url=https://cn.apihz.cn/api/tianqi/tqyb.php?id=%s&key=%s&sheng=%s&place=%s
# 调用接口盒子的接口查询天气,这里是ID,请改成您自己的注册ID
weather.tools.id=your-id
# 调用接口盒子的接口查询天气,这里是通讯KEY,请改成您自己的通讯KEY
weather.tools.key=your-key
- 新增启动类,依旧平平无奇
java
package com.bolingcavalry;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
/**
* Spring Boot应用程序的主类
*/
@SpringBootApplication
public class Application {
public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}
}
- 接口盒子返回的json数据,要准备数据结构来保存,由于有嵌套对象,所以需要两个pojo,第一个是NowInfo,存的是实时数据,如温度湿度
java
package com.bolingcavalry.vo;
import lombok.Data;
import java.io.Serializable;
@Data
public class NowInfo implements Serializable {
private double precipitation;
private double temperature;
private int pressure;
private int humidity;
private String windDirection;
private int windDirectionDegree;
private int windSpeed;
private String windScale;
private double feelst;
private String uptime;
}
- 第二个pojo是WeatherInfo,对应的是接口返回的完整JSON
java
package com.bolingcavalry.vo;
import lombok.Data;
import java.io.Serializable;
@Data
public class WeatherInfo implements Serializable {
private int code;
private String guo;
private String sheng;
private String shi;
private String name;
private String weather1;
private String weather2;
private int wd1;
private int wd2;
private String winddirection1;
private String winddirection2;
private String windleve1;
private String windleve2;
private String weather1img;
private String weather2img;
private double lon;
private double lat;
private String uptime;
private NowInfo nowinfo;
private Object alarm;
}
- 然后是本篇的第一个重点:自定义函数,该函数的作用是调用接口盒子的HTTP服务获取实时天气,需要注意的是要用Tool注解修饰
java
package com.bolingcavalry.service;
import java.net.URLEncoder;
import java.nio.charset.StandardCharsets;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.web.client.RestTemplate;
import com.bolingcavalry.vo.WeatherInfo;
import dev.langchain4j.agent.tool.P;
import dev.langchain4j.agent.tool.Tool;
import lombok.Data;
@Data
public class WeatherTools {
private static final Logger logger = LoggerFactory.getLogger(WeatherTools.class);
private String weatherToolsUrl;
private String weatherToolsId;
private String weatherToolsKey;
@SuppressWarnings("null")
@Tool("返回给定省份和城市的天气预报综合信息")
public WeatherInfo getWeather(@P("应返回天气预报的省份") String province, @P("应返回天气预报的城市") String city) throws IllegalArgumentException {
String encodedProvince = URLEncoder.encode(province, StandardCharsets.UTF_8);
String encodedCity = URLEncoder.encode(city, StandardCharsets.UTF_8);
String url = String.format(weatherToolsUrl, weatherToolsId, weatherToolsKey, encodedProvince, encodedCity);
logger.info("调用天气接口:{}", url);
return new RestTemplate().getForObject(url, WeatherInfo.class);
}
}
- 接着是配置类,里面创建了天气服务类和LLM模型服务类的bean,要注意的是在创建模型服务类的时候设置了监听类ChatModelListener,这样服务和LLM的每一次请求响应详情都会打印到日志
java
package com.bolingcavalry.config;
import java.util.List;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import com.bolingcavalry.service.QwenService;
import com.bolingcavalry.service.WeatherTools;
import dev.langchain4j.agent.tool.ToolExecutionRequest;
import dev.langchain4j.data.message.AiMessage;
import dev.langchain4j.data.message.ChatMessage;
import dev.langchain4j.model.chat.listener.ChatModelErrorContext;
import dev.langchain4j.model.chat.listener.ChatModelListener;
import dev.langchain4j.model.chat.listener.ChatModelRequestContext;
import dev.langchain4j.model.chat.listener.ChatModelResponseContext;
import dev.langchain4j.model.chat.response.ChatResponse;
import dev.langchain4j.model.openai.OpenAiChatModel;
/**
* LangChain4j配置类
*/
@Configuration
public class LangChain4jConfig {
private static final Logger logger = LoggerFactory.getLogger(LangChain4jConfig.class);
@Value("${langchain4j.open-ai.chat-model.api-key}")
private String apiKey;
@Value("${langchain4j.open-ai.chat-model.model-name:qwen-turbo}")
private String modelName;
@Value("${langchain4j.open-ai.chat-model.base-url}")
private String baseUrl;
/**
* 创建并配置OpenAiChatModel实例(使用通义千问的OpenAI兼容接口)
*
* @return OpenAiChatModel实例
*/
@Bean
public OpenAiChatModel chatModel() {
ChatModelListener listener = new ChatModelListener() {
@Override
public void onRequest(ChatModelRequestContext reqCtx) {
// 1. 拿到 List<ChatMessage>
List<ChatMessage> messages = reqCtx.chatRequest().messages();
logger.info("发到LLM的请求: {}", messages);
}
@Override
public void onResponse(ChatModelResponseContext respCtx) {
// 2. 先取 ChatModelResponse
ChatResponse response = respCtx.chatResponse();
// 3. 再取 AiMessage
AiMessage aiMessage = response.aiMessage();
// 4. 工具调用
List<ToolExecutionRequest> tools = aiMessage.toolExecutionRequests();
for (ToolExecutionRequest t : tools) {
logger.info("LLM响应, 执行函数[{}], 函数入参 : {}", t.name(), t.arguments());
}
// 5. 纯文本
if (aiMessage.text() != null) {
logger.info("LLM响应, 纯文本 : {}", aiMessage.text());
}
}
@Override
public void onError(ChatModelErrorContext errorCtx) {
errorCtx.error().printStackTrace();
}
};
return OpenAiChatModel.builder()
.apiKey(apiKey)
.modelName(modelName)
.baseUrl(baseUrl)
.listeners(List.of(listener))
.build();
}
@Value("${weather.tools.url}")
private String weatherToolsUrl;
@Value("${weather.tools.id}")
private String weatherToolsId;
@Value("${weather.tools.key}")
private String weatherToolsKey;
@Bean
public WeatherTools weatherTools() {
WeatherTools tools = new WeatherTools();
tools.setWeatherToolsUrl(weatherToolsUrl);
tools.setWeatherToolsId(weatherToolsId);
tools.setWeatherToolsKey(weatherToolsKey);
return tools;
}
}
- 接下来,重点来了:我们要自己实现和LLM的两次通信,并且在第一次收到响应时,要根据LLM给定的参数去调用查询天气的服务类,下面先给出完整代码,再详细说明其中的重点
java
package com.bolingcavalry.service;
import java.util.List;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import com.bolingcavalry.vo.WeatherInfo;
import dev.langchain4j.agent.tool.ToolExecutionRequest;
import dev.langchain4j.agent.tool.ToolSpecification;
import dev.langchain4j.agent.tool.ToolSpecifications;
import dev.langchain4j.data.message.UserMessage;
import dev.langchain4j.data.message.ToolExecutionResultMessage;
import dev.langchain4j.model.chat.request.ChatRequest;
import dev.langchain4j.model.chat.response.ChatResponse;
import dev.langchain4j.model.openai.OpenAiChatModel;
/**
* 通义千问服务类,用于与通义千问模型进行交互
*/
@Service
public class QwenService {
private static final Logger logger = LoggerFactory.getLogger(QwenService.class);
@Autowired
private OpenAiChatModel openAiChatModel;
@Autowired
private WeatherTools weatherTools;
private List<ToolSpecification> prepareToolSpecifications() {
return ToolSpecifications.toolSpecificationsFrom(WeatherTools.class);
}
/**
* 处理工具执行请求
*/
private String executeTool(ToolExecutionRequest request) {
try {
if ("getWeather".equals(request.name())) {
String arguments = request.arguments();
logger.info("执行工具调用:getWeather,参数:{}", arguments);
// 简单解析 JSON 参数
String province = null;
String city = null;
// 检查参数格式
if (arguments.contains("arg0") && arguments.contains("arg1")) {
// 格式:{"arg0": "广东", "arg1": "深圳"}
province = extractValue(arguments, "arg0");
city = extractValue(arguments, "arg1");
} else if (arguments.contains("province") && arguments.contains("city")) {
// 格式:{"province": "广东", "city": "深圳"}
province = extractValue(arguments, "province");
city = extractValue(arguments, "city");
}
logger.info("解析后的参数:province={}, city={}", province, city);
if (province == null || city == null) {
throw new IllegalArgumentException("无法解析参数:" + arguments);
}
WeatherInfo weatherInfo = weatherTools.getWeather(province, city);
return weatherInfo.toString();
} else {
return "Unknown tool: " + request.name();
}
} catch (Exception e) {
logger.error("工具执行失败", e);
return "Tool execution failed: " + e.getMessage();
}
}
/**
* 从 JSON 字符串中提取值
*/
private String extractValue(String json, String key) {
int start = json.indexOf('"' + key + '"');
if (start == -1)
return null;
int colon = json.indexOf(':', start);
int valueStart = json.indexOf('"', colon);
int valueEnd = json.indexOf('"', valueStart + 1);
return valueStart != -1 && valueEnd != -1 ? json.substring(valueStart + 1, valueEnd) : null;
}
/**
* 通过提示词range大模型返回JSON格式的内容
*
* @param prompt
* @return
*/
public String getWeather(String prompt) {
List<ToolSpecification> toolSpecifications = prepareToolSpecifications();
ChatRequest req = ChatRequest.builder()
.messages(UserMessage.from(prompt))
.toolSpecifications(toolSpecifications)
.build();
ChatResponse resp = openAiChatModel.chat(req);
logger.info("初始响应:" + resp);
// 检查是否需要执行工具调用
if (resp.aiMessage().toolExecutionRequests() != null && !resp.aiMessage().toolExecutionRequests().isEmpty()) {
logger.info("需要执行工具调用");
// 执行所有工具调用
for (ToolExecutionRequest toolRequest : resp.aiMessage().toolExecutionRequests()) {
String toolResult = executeTool(toolRequest);
logger.info("工具执行结果:" + toolResult);
// 将工具执行结果发送回模型
ChatRequest toolResultRequest = ChatRequest.builder()
.messages(
UserMessage.from(prompt),
resp.aiMessage(),
ToolExecutionResultMessage.from(toolRequest, "工具执行结果:" + toolResult))
.toolSpecifications(toolSpecifications)
.build();
resp = openAiChatModel.chat(toolResultRequest);
logger.info("工具执行后的响应:" + resp);
}
}
return resp.aiMessage().text() + "[from low level getWeather]";
}
}
- 上述代码的重点如下:
- 整个功能由getWeather方法实现,该方法会被controller中的接口实现调用,入参就是用户的提示词
- 请求LLM的办法是执行:openAiChatModel.chat
- 解析第一次LLM响应再根据响应调用本地函数,这些都被封装在executeTool方法中
- 有一处需要重点关注的代码,如下图黄框所示,也就是说第二次请求必须要带上提示词,否则难以得到理想结果

- executeTool方法中还有个细节,就是LLM返回的参数信息,其参数名可能不是咱们函数的入参名称,例如这里就是arg0和arg1,所以不能只用province和city去解析
- 最后是controller类,这里准备个http接口响应,用来调用前的服务类的功能
java
package com.bolingcavalry.controller;
import org.springframework.http.ResponseEntity;
import org.springframework.web.bind.annotation.PostMapping;
import org.springframework.web.bind.annotation.RequestBody;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
import com.bolingcavalry.service.QwenService;
import lombok.Data;
/**
* 通义千问控制器,处理与大模型交互的HTTP请求
*/
@RestController
@RequestMapping("/api/qwen")
public class QwenController {
private final QwenService qwenService;
/**
* 构造函数,通过依赖注入获取QwenService实例
*
* @param qwenService QwenService实例
*/
public QwenController(QwenService qwenService) {
this.qwenService = qwenService;
}
/**
* 提示词请求实体类
*/
@Data
static class PromptRequest {
private String prompt;
private int userId;
private String province;
private String city;
}
/**
* 响应实体类
*/
@Data
static class Response {
private String result;
public Response(String result) {
this.result = result;
}
}
/**
* 检查请求体是否有效
*
* @param request 包含提示词的请求体
* @return 如果有效则返回null,否则返回包含错误信息的ResponseEntity
*/
private ResponseEntity<Response> check(PromptRequest request) {
if (request == null || request.getPrompt() == null || request.getPrompt().trim().isEmpty()) {
return ResponseEntity.badRequest().body(new Response("提示词不能为空"));
}
return null;
}
@PostMapping("/tool/low/getwether")
public ResponseEntity<Response> getWeather(@RequestBody PromptRequest request) {
ResponseEntity<Response> checkRlt = check(request);
if (checkRlt != null) {
return checkRlt;
}
try {
Object response = qwenService.getWeather(request.getPrompt());
return ResponseEntity.ok(new Response(response.toString()));
} catch (Exception e) {
// 捕获异常并返回错误信息
return ResponseEntity.status(500).body(new Response("请求处理失败: " + e.getMessage()));
}
}
}
- 至此代码就全部写完了,现在把工程运行起来试试,在tools-low-level目录下执行以下命令即可启动服务
bash
mvn spring-boot:run
- 用vscode的 REST Client插件发起http请求,参数如下,和前文用提示词指定JSON不同,这里并没有要求LLM返回JSON格式
bash
### 查询天气,内部实现是低级API
POST http://localhost:8080/api/qwen/tool/low/getwether
Content-Type: application/json
Accept: application/json
{
"prompt": "深圳天气"
}
- 收到响应如下,可见与LLM对话就能得知最新的天气情况
bash
HTTP/1.1 200 OK
Content-Type: application/json
Transfer-Encoding: chunked
Date: Thu, 08 Jan 2026 09:15:30 GMT
Connection: close
{
"result": "深圳当前天气情况如下:\n\n- **当前温度**:17.2℃,体感温度为15.1℃。\n- **天气状况**:晴天。\n- **湿度**:24%。\n- **风向与风力**:东北风,风速2级,微风。\n- **气压**:1015 hPa。\n- **降水**:无降水。\n\n今天白天到夜间天气均为晴,白天气温最高约18℃,夜间最低约9℃。白天风向为东北风,风力3~4级,夜间转为无持续风向,微风。适合外出活动,但注意早晚温差较大,适当增减衣物。[from low level getWeather]"
}
- 再看日志,可见LLM第一次响应会提醒业务侧应该执行的函数及其方法,第二次请求就带上了函数结果,这样第二次LLM返回的就是根据题词要求从函数结果中整理出来的内容,这些内容源自函数结果,但是被LLM整理了一番,这就是用户最终拿到的结果
bash
12:16:47.177 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 发到LLM的请求: [UserMessage { name = null, contents = [TextContent { text = "深圳天气" }], attributes = {} }]
12:16:50.888 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - LLM响应, 执行函数[getWeather], 函数入参 : {"arg0": "广东", "arg1": "深圳"}
12:16:50.888 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 初始响应:ChatResponse { aiMessage = AiMessage { text = null, thinking = null, toolExecutionRequests = [ToolExecutionRequest { id = "call_b4023a85fe464623b28f59ae", name = "getWeather", arguments = "{"arg0": "广东", "arg1": "深圳"}" }], attributes = {} }, metadata = OpenAiChatResponseMetadata{id='chatcmpl-a6629086-3c80-9dce-a610-a267f121719d', modelName='qwen3-max', tokenUsage=OpenAiTokenUsage { inputTokenCount = 296, inputTokensDetails = OpenAiTokenUsage.InputTokensDetails { cachedTokens = 0 }, outputTokenCount = 33, outputTokensDetails = null, totalTokenCount = 329 }, finishReason=TOOL_EXECUTION, created=1767874607, serviceTier='null', systemFingerprint='null', rawHttpResponse=dev.langchain4j.http.client.SuccessfulHttpResponse@1949264d, rawServerSentEvents=[]} }
12:16:50.888 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 需要执行工具调用
12:16:50.888 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 执行工具调用:getWeather,参数:{"arg0": "广东", "arg1": "深圳"}
12:16:50.888 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 解析后的参数:province=广东, city=深圳
12:16:50.888 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.WeatherTools - 调用天气接口:https://cn.apihz.cn/api/tianqi/tqyb.php?id=10011856&key=b860cf8c32bc224c1003078105ef43e4&sheng=%E5%B9%BF%E4%B8%9C&place=%E6%B7%B1%E5%9C%B3
12:16:51.169 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 工具执行结果:WeatherInfo(code=200, guo=中国, sheng=广东, shi=深圳, name=深圳, weather1=晴, weather2=晴, wd1=18, wd2=9, winddirection1=东北风, winddirection2=无持续风向, windleve1=3~4级, windleve2=微风, weather1img=https://rescdn.apihz.cn/resimg/tianqi/qing.png, weather2img=https://rescdn.apihz.cn/resimg/tianqi/qing.png, lon=114.0, lat=22.54, uptime=2026-01-08 20:00:00, nowinfo=NowInfo(precipitation=0.0, temperature=13.3, pressure=1017, humidity=33, windDirection=东北风, windDirectionDegree=3, windSpeed=1, windScale=微风, feelst=11.9, uptime=2026/01/08 19:35), alarm=null)
12:16:51.170 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 发到LLM的请求: [UserMessage { name = null, contents = [TextContent { text = "深圳天气" }], attributes = {} }, AiMessage { text = null, thinking = null, toolExecutionRequests = [ToolExecutionRequest { id = "call_b4023a85fe464623b28f59ae", name = "getWeather", arguments = "{"arg0": "广东", "arg1": "深圳"}" }], attributes = {} }, ToolExecutionResultMessage { id = "call_b4023a85fe464623b28f59ae" toolName = "getWeather" text = "工具执行结果:WeatherInfo(code=200, guo=中国, sheng=广东, shi=深圳, name=深圳, weather1=晴, weather2=晴, wd1=18, wd2=9, winddirection1=东北风, winddirection2=无持续风向, windleve1=3~4级, windleve2=微风, weather1img=https://rescdn.apihz.cn/resimg/tianqi/qing.png, weather2img=https://rescdn.apihz.cn/resimg/tianqi/qing.png, lon=114.0, lat=22.54, uptime=2026-01-08 20:00:00, nowinfo=NowInfo(precipitation=0.0, temperature=13.3, pressure=1017, humidity=33, windDirection=东北风, windDirectionDegree=3, windSpeed=1, windScale=微风, feelst=11.9, uptime=2026/01/08 19:35), alarm=null)" }]
12:16:59.191 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - LLM响应, 纯文本 : 深圳当前天气情况如下:
- **当前温度**:13.3°C,体感温度为11.9°C。
- **天气状况**:晴。
- **湿度**:33%。
- **风向与风速**:东北风,风速1级,微风。
- **气压**:1017 hPa。
- **降水**:无降水。
**今日天气预报**:
- 白天:晴,气温18°C,东北风3~4级。
- 夜间:晴,气温9°C,无持续风向,微风。
如需更多天气信息,请随时告诉我!
12:16:59.191 [http-nio-8080-exec-4] INFO c.bolingcavalry.service.QwenService - 工具执行后的响应:ChatResponse { aiMessage = AiMessage { text = "深圳当前天气情况如下:
- **当前温度**:13.3°C,体感温度为11.9°C。
- **天气状况**:晴。
- **湿度**:33%。
- **风向与风速**:东北风,风速1级,微风。
- **气压**:1017 hPa。
- **降水**:无降水。
**今日天气预报**:
- 白天:晴,气温18°C,东北风3~4级。
- 夜间:晴,气温9°C,无持续风向,微风。
如需更多天气信息,请随时告诉我!", thinking = null, toolExecutionRequests = [], attributes = {} }, metadata = OpenAiChatResponseMetadata{id='chatcmpl-8c48ff4c-650e-90a1-80bd-3182c7be2b00', modelName='qwen3-max', tokenUsage=OpenAiTokenUsage { inputTokenCount = 591, inputTokensDetails = OpenAiTokenUsage.InputTokensDetails { cachedTokens = 0 }, outputTokenCount = 139, outputTokensDetails = null, totalTokenCount = 730 }, finishReason=STOP, created=1767874611, serviceTier='null', systemFingerprint='null', rawHttpResponse=dev.langchain4j.http.client.SuccessfulHttpResponse@78a1c261, rawServerSentEvents=[]} }
思考:函数调用有意义吗?
- 回看前面的功能:想知道天气,直接调用天气接口就行,结果还要和LLM对话,而且对话期间还要去调接口查天气信息,这算不算脱了裤子放Pi?
- 判断函数调用是不是多余的,咱们再看一个例子,请求如下
bash
### 查询天气,内部实现是低级API
POST http://localhost:8080/api/qwen/tool/low/getwether
Content-Type: application/json
Accept: application/json
{
"prompt": "深圳今天下雨吗?不要其他信息"
}
- 响应如下
bash
HTTP/1.1 200 OK
Content-Type: application/json
Transfer-Encoding: chunked
Date: Thu, 08 Jan 2026 09:20:02 GMT
Connection: close
{
"result": "深圳今天不下雨,天气为晴。[from low level getWeather]"
}
- 看了上面的问答,想必您已经发现了:接口不用变化,但是利用LLM的理解能力,我们可以有多种问法,也能得到多种回复,相当于核心数据可以延伸到更多的业务场景
- 至此,低级API版本的函数调用学习完成,是不是感觉代码量略大?而且啥事都靠自己写代码实现太累了,下一篇,咱们就来体验高级API版本的函数调用,整个过程会非常轻松,因为这些你觉得该封装的东西,LangChain4j都帮忙我们封装在AiService中了