R1大模型推出后,Deepseek官网的API也更新了,我们可以看到 chat
接口的响应数据结果里多了一个reasoning_content
字段
于是我们的JBoltAI SDK
以及 SpringBoot版以及Jfinal版JBoltAI Platform
迅速跟进,提供了对深度思考的支持:
scss
//1. 将大模型注册为全局资源
ResourceCenter.registerAI("ai-chatgpt1", AIModel.DEEP_SEEK, JBoltAITestConfig.DEEPSEEK_API_KEY);
//2.指定使用DeepSeek大模型发起聊天,会自动从全局资源中调取deepseek的资源
JBoltAI.chat(AIModel.DEEP_SEEK).setModelName("deepseek-reasoner")
.contextMessages(Arrays.asList(
new AIMessage(AIMessageRole.user, "你好,我叫张三丰,请问你是谁?"),
new AIMessage(AIMessageRole.assistant, "你好,我是人工智能大模型,有什么我可以帮你的")
))
.prompt("请你重复下我的名字")
.onThinking((e, think, status) -> {
if (status == ThinkStatus.START) {
System.out.println("===== 思考开始 =============");
} else if (status == ThinkStatus.RUNNING) {
System.out.print(think);
} else if (status == ThinkStatus.COMPLETE) {
System.out.print(think);
System.out.println("===== 思考结束 =============");
System.out.println("===== 开始回答 =============");
}
})
.onSuccess((e,msg) -> {
System.out.print(msg.getContent());
}).publish().await();
在上面的例子中,我们模拟构造了一个上下文环境,让AI基于历史消息进行回答。
这里的核心就是onThinking
回调和 onSuccess
回调。在onThinking
回调中我们可以获取到R1大模型的思考过程,通过status可以知道当前思考过程的进度。在onSuccess
回调中我们可以获取到R1大模型的正式回答内容。
我们发起的AI聊天是以event事件的形式执行的,框架底层有一个事件调度器,会根据系统负载和ai资源的可用情况,自动分配资源给事件去执行。
默认情况下,AI聊天事件是流式输出的,所以onThinkging
和 onSuccess
回调会随着AI的流式响应而触发多次。当然我们也可以控制事件的输出方式为非流式的,这一点,我们的JBoltAI 框架是非常灵活的,并且我们以统一的编码方式,让开发者可以非常容易的去使用近二十种主流的大模型、平台,开发者无需关心各个模型的参数差异,接口差异,无需更改代码就可以无缝切换不同的大模型。
欢迎大家使用的JBoltAI 开发框架,来加速开发你的AI应用和知识库应用。