LangChain4j—接入其他大模型(二)

1、都有哪些大模型

SuperCLUE 是由国内 CLUE 学术社区于 2023 年 5 月推出的中文通用大模型综合性评测基准。

2、接入DeepSeek

DeepSeek API文档: api-docs.deepseek.com/zh-cn

获取开发参数

访问官网: www.deepseek.com/ 注册账号,获取base_url和api_key,充值

配置参数模型

LangChain4j 中,DeepSeekGPT 一样也使用了 OpenAI 的接口标准,因此也使用OpenAiChatModel进行接入

java 复制代码
#DeepSeek
langchain4j.open-ai.chat-model.base-url=https://api.deepseek.com
langchain4j.open-ai.chat-model.api-key=${DEEP_SEEK_API_KEY}

#DeepSeek-V3
langchain4j.open-ai.chat-model.model-name=deepseek-chat

#DeepSeek-R1 推理模型
#langchain4j.open-ai.chat-model.model-name=deepseek-reasoner#DeepSeek
langchain4j.open-ai.chat-model.base-url=https://api.deepseek.com
langchain4j.open-ai.chat-model.api-key=${DEEP_SEEK_API_KEY}

#DeepSeek-V3
langchain4j.open-ai.chat-model.model-name=deepseek-chat

#DeepSeek-R1 推理模型
#langchain4j.open-ai.chat-model.model-name=deepseek-reasoner

3、ollama本地部署

官网: ollama.com/

3.1、为什么要本地部署

Ollama 是一个本地部署大模型的工具。使用 Ollama 进行本地部署有以下多方面的原因:

  • 数据隐私与安全:对于金融、医疗、法律等涉及大量敏感数据的行业,数据安全至关重要。

  • 离线可用性:在网络不稳定或无法联网的环境中,本地部署的 Ollama 模型仍可正常运行。

  • 降低成本:云服务通常按使用量收费,长期使用下来费用较高。而 Ollama 本地部署,只需一次性投入硬件成本,对于需要频繁使用大语言模型且对成本敏感的用户或企业来说,能有效节约成本。

  • 部署流程简单:只需通过简单的命令 "ollama run < 模型名>",就可以自动下载并运行所需的模型。

  • 灵活扩展与定制:可对模型微调,以适配垂直领域需求。

3.2、在ollama上部署DeepSeek

  • 下载并安装ollama: OllamaSetup.exe

  • 查看模型列表,选择要部署的模型,模型列表: ollama.com/search

  • 执行命令: ollama run deepseek-r1:1.5 运行大模型。如果是第一次运行则会先下载大模型

3.3、常用命令

3.4、引入依赖

参考文档: docs.langchain4j.dev/integration...

js 复制代码
<!-- 接入ollama -->
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-ollama-spring-boot-starter</artifactId>
</dependency>

3.5、配置模型参数

js 复制代码
#ollama
langchain4j.ollama.chat-model.base-url=http://localhost:11434
langchain4j.ollama.chat-model.model-name=deepseek-r1:1.5b
langchain4j.ollama.chat-model.log-requests=true
langchain4j.ollama.chat-model.log-responses=true

3.6、创建测试用例

java 复制代码
/**
* ollama接入
*/

@Autowired
private OllamaChatModel ollamaChatModel;

@Test
public void testOllama() {
    //向模型提问
    String answer = ollamaChatModel.chat("你好");
    //输出结果
    System.out.println(answer);
}

4、接入阿里百炼平台

4.1、什么是阿里百炼

  • 阿里云百炼是 2023 年 10 月推出的。它集成了阿里的通义系列大模型和第三方大模型,涵盖文本、图像、音视频等不同模态。

  • 功能优势:集成超百款大模型 API,模型选择丰富;5-10 分钟就能低代码快速构建智能体,应用构建高效;提供全链路模型训练、评估工具及全套应用开发工具,模型服务多元;在线部署可按需扩缩容,新用户有千万 token 免费送,业务落地成本低。

  • 支持接入的模型列表: help.aliyun.com/zh/model-st...

  • 模型广场: bailian.console.aliyun.com/?productCod...

4.2、申请免费体验

4.3、查询apiKey

4.4、添加依赖

LangChain4j参考文档: docs.langchain4j.dev/integration...

java 复制代码
<dependencies>
<!-- 接入阿里云百炼平台 -->
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-community-dashscope-spring-boot-starter</artifactId>
</dependency>
</dependencies>

<dependencyManagement>
    <dependencies>
        <!--引入百炼依赖管理清单-->
        <dependency>
            <groupId>dev.langchain4j</groupId>
            <artifactId>langchain4j-community-bom</artifactId>
            <version>${langchain4j.version}</version>
            <type>pom</type>
            <scope>import</scope>
        </dependency>
    </dependencies>
</dependencyManagement>

4.5、配置模型参数

java 复制代码
#阿里百炼平台
langchain4j.community.dashscope.chat-model.api-key=${DASH_SCOPE_API_KEY}
langchain4j.community.dashscope.chat-model.model-name=qwen-max

4.6、测试通义千问

java 复制代码
/**
* 通义千问大模型
*/

@Autowired
private QwenChatModel qwenChatModel;

@Test
public void testDashScopeQwen() {
    //向模型提问
    String answer = qwenChatModel.chat("你好");
    //输出结果
    System.out.println(answer);
}
相关推荐
明明跟你说过13 分钟前
掌握 LangChain 文档处理核心:Document Loaders 与 Text Splitters 全解析
人工智能·语言模型·自然语言处理·langchain
EasyDSS15 分钟前
嵌入式EasyRTC音视频实时通话SDK在工业制造领域的智能巡检/AR协作等应用
人工智能·音视频
为美好的生活献上中指23 分钟前
java每日精进 5.14【参数校验】
java·开发语言·spring boot·tomcat
正在走向自律24 分钟前
GpuGeek 网络加速:破解 AI 开发中的 “最后一公里” 瓶颈
网络·人工智能·python·机器学习·性能优化·gpugeek
qq_124987075329 分钟前
原生小程序+springboot+vue+协同过滤算法的音乐推荐系统(源码+论文+讲解+安装+部署+调试)
java·spring boot·后端·小程序·毕业设计·课程设计·协同过滤
曾昭武40 分钟前
IDEA怎么汉化&idea中文改回英文版
java·intellij-idea·idea汉化·idea怎么汉化·idea转回英文
正儿八经的数字经43 分钟前
人工智能100问☞第24问:什么是生成对抗网络(GAN)?
人工智能·神经网络·生成对抗网络
信徒_2 小时前
SpringBoot 自动装配流程
java·spring boot·后端
wei_shuo2 小时前
GpuGeek 实操指南:So-VITS-SVC 语音合成与 Stable Diffusion 文生图双模型搭建,融合即梦 AI 的深度实践
人工智能·stable diffusion·gpu算力·gpuseek