LangChain4j 流式输出

流式输出

流式输出 ,指AI模型不是等生成完完整答案再一次性发送,而是边生成文本,边以"数据流"的形式,将当前已生成的部分实时推送给用户

接口变更:

  • ChatModel -> StreamingChatModel
  • LanguageModel -> StreamingLanguageModel

StreamingXX 系列的接口都具有相似的 API,它们都接收一个 StreamingChatResponseHandler 对象。

通过实现 StreamingChatResponseHandler 接口,可以自定义如下事件:

  • 生成下一个部分文本响应时:

    将调用 onPartialResponse(String)onPartialResponse(PartialResponse, PartialResponseContext) 方法(您可以选择实现其中任一方法)。根据不同的 LLM 提供商,部分响应文本可能包含单个或多个词元。例如,您可以在词元生成后立即将其直接发送至用户界面。

  • 生成下一个部分推理/思考文本时:

    将调用 onPartialThinking(PartialThinking)onPartialThinking(PartialThinking, PartialThinkingContext) 方法(您可以选择实现其中任一方法)。根据不同的 LLM 提供商,部分思考文本可能包含单个或多个词元。

  • 生成下一个部分工具调用时:

    将调用 onPartialToolCall(PartialToolCall)onPartialToolCall(PartialToolCall, PartialToolCallContext) 方法(您可以选择实现其中任一方法)。

  • **当LLM完成单个工具调用的流式传输时:**将调用 onCompleteToolCall(CompleteToolCall) 方法。

  • **当LLM完成生成时:**将调用 onCompleteResponse(ChatResponse) 方法。ChatResponse对象包含完整响应(AiMessage)以及ChatResponseMetadata。

  • **发生错误时:**将调用 onError(Throwable error) 方法。

Low-level API

java 复制代码
@Configuration
public class LLMConfig {
    @Bean
    public StreamingChatModel streamingChatModel() {
        return OpenAiStreamingChatModel.builder()
                .apiKey(System.getenv("ALI_QWEN_API_KEY"))
                .modelName("qwen-plus")
                .baseUrl("https://dashscope.aliyuncs.com/compatible-mode/v1")
                .build();
    }
}

StreamController

java 复制代码
@RestController
@RequestMapping("stream")
@Slf4j
public class StreamController {
    @Resource
    private StreamingChatModel streamingChatModel;

    @GetMapping("/qwen/chat1")
    public void chat1(@RequestParam(value = "question", defaultValue = "你是谁?") String question) {
        streamingChatModel.chat(question, new StreamingChatResponseHandler() {
            @Override
            public void onPartialResponse(String s) {
                System.out.println(s);
            }

            @Override
            public void onCompleteResponse(ChatResponse chatResponse) {
                System.out.println(chatResponse);
            }

            @Override
            public void onError(Throwable throwable) {
                System.out.println(throwable.getMessage());
            }
        });
    }
}

High-level API

定义 AI 服务接口

java 复制代码
public interface Assistant {
    TokenStream chatTokenStream(String message);
}

LLM 配置

java 复制代码
@Configuration
public class LLMConfig {
    @Bean
    public Assistant assistant(StreamingChatModel streamingChatModel) {
        return AiServices.create(Assistant.class, streamingChatModel);
    }
}

StreamController

java 复制代码
@RestController
@RequestMapping("stream")
@Slf4j
public class StreamController {
    @Resource
    private Assistant assistant;
    
    @GetMapping("/qwen/chat4")
    public void chat4(@RequestParam(value = "question", defaultValue = "你是谁?") String question) {
        TokenStream tokenStream = assistant.chatTokenStream(question);
        CompletableFuture<ChatResponse> futureResponse = new CompletableFuture<>();
        tokenStream
                .onPartialResponse((String s) -> log.info(s))
                .onCompleteResponse((ChatResponse response) -> futureResponse.complete(response))
                .onError((Throwable error) -> futureResponse.completeExceptionally(error))
                .start();
        futureResponse.join(); // 阻塞主线程,直到流式传输进程(在另一个线程中运行)完成
    }
}

Flux

可以直接使用 Flux<String> 向客户端响应。为此,请导入 langchain4j-reactor 依赖:

xml 复制代码
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-reactor</artifactId>
    <version>1.11.0-beta19</version>
</dependency>

Low-level API

java 复制代码
@RestController
@RequestMapping("stream")
@Slf4j
public class StreamController {
    @Resource
    private StreamingChatModel streamingChatModel;

    @GetMapping("/qwen/chat2")
    public Flux<String> chat2(@RequestParam(value = "question", defaultValue = "你是谁?") String question) {
        return Flux.create(e -> {
            streamingChatModel.chat(question, new StreamingChatResponseHandler() {
                @Override
                public void onPartialResponse(String s) {
                    e.next(s);
                }

                @Override
                public void onCompleteResponse(ChatResponse chatResponse) {
                    e.complete();
                }

                @Override
                public void onError(Throwable throwable) {
                    e.error(throwable);
                }
            });
        });
    }
}

High-level API

定义服务接口

java 复制代码
public interface Assistant {
    Flux<String> chatFlux(String message);
}

StreamController

java 复制代码
@RestController
@RequestMapping("stream")
@Slf4j
public class StreamController {
    @Resource
    private Assistant assistant;

    @GetMapping("/qwen/chat3")
    public Flux<String> chat3(@RequestParam(value = "question", defaultValue = "你是谁?") String question) {
        return assistant.chatFlux(question);
    }
}
相关推荐
爱丽_10 分钟前
Spring 事务:传播行为、失效场景、回滚规则与最佳实践
java·后端·spring
用户31673613034217 分钟前
SSE消息推送前后端代码
前端·后端
搬搬砖得了22 分钟前
当 GraphQL 变成“全家桶”,Stream 写成“天书”,老板变身“谜语人”:我在代码屎山里的渡劫日常
后端
默海笑26 分钟前
Java 基础 12:JavaDoc 生成文档 学习笔记
后端
写Cpp的小黑黑30 分钟前
React Native 项目实战指南
后端
G探险者1 小时前
如何找到那些慢 SQL?
后端·sql
敖正炀1 小时前
线程池拒绝策略场景分析
后端
神奇小汤圆1 小时前
别再乱写并发了!弄懂阻塞队列,解决 90% 线程安全问题
后端
敖正炀1 小时前
线程池决绝策略
后端
Moe4882 小时前
WebSocket :从浏览器 API 到 Spring 握手、Handler 与前端客户端
java·后端·架构