LangChain使用入门

安装LangChain

sh 复制代码
uv add langchain
uv add langchain-openai

本地启动一个大模型

参考文章juejin.cn/post/762965...

sh 复制代码
(base) gillbert@pop-os:~$ conda activate llm
(llm) gillbert@pop-os:~$ cd models/
(llm) gillbert@pop-os:~/models$ vllm serve DeepSeek-R1-Distill-Qwen-1.5B --tensor-parallel-size 1 --gpu-memory-utilization 0.7 --max-model-len 4096 --host 0.0.0.0 --port 8000 --api-key 123456

连接模型

python 复制代码
from langchain.chat_models import init_chat_model

model = init_chat_model(
    model="DeepSeek-R1-Distill-Qwen-1.5B",
    model_provider="openai",
    api_key="123456",
    base_url="http://192.168.0.23:8000/v1"
)

print(model.invoke("你是谁").content)

print("*" * 50)

输出如下

流式输出

python 复制代码
from langchain.chat_models import init_chat_model
import logging

from langchain_core.language_models import BaseChatModel

logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(name)s - %(levelname)s - %(message)s')
logger = logging.getLogger(__name__)

def init_llm_client() -> BaseChatModel:
    model = init_chat_model(
        model="DeepSeek-R1-Distill-Qwen-1.5B",
        model_provider="openai",
        api_key="123456",
        base_url="http://192.168.0.23:8000/v1"
    )

    return model

def main():
    try:
        chat = init_llm_client()
        logger.info("LLM客户端初始化成功")
        # 流式输出
        response_stream = chat.stream("介绍一下日语的动词变形")
        for chunk in response_stream:
            print(chunk.content, end="")
    except Exception as e:
        logger.error(e)


if __name__ == "__main__":
    main()
相关推荐
xyyaihxl2 小时前
将 vue3 项目打包后部署在 springboot 项目运行
java·spring boot·后端
chenxu98b2 小时前
前端的dist包放到后端springboot项目下一起打包
前端·spring boot·后端
sunwenjian8862 小时前
跨域问题解释及前后端解决方案(SpringBoot)
spring boot·后端·okhttp
神奇小汤圆2 小时前
快手一面:你简历做过 RAG 项目,那 RAG 主要用来解决什么问题?
后端
黑牛儿2 小时前
面试高频问题:从浏览器请求到PHP响应:完整流程拆解
android·后端·面试·php
BOOM朝朝朝2 小时前
envoy-gateway 解析
后端
搬搬砖得了2 小时前
Spring Boot Bean 生命周期与作用域:从单例到原型,完整剖析
后端·架构
fliter2 小时前
Cargo 要自动帮你清理缓存了
后端
淡然一笑3532 小时前
Linux服务器安装失败全面指南:常见问题深度解析与高效解决策略
后端