第1章 初识 LangChain:大模型时代的开发脚手架

在2022年ChatGPT引爆生成式AI浪潮后,我相信很多人和我一样,从"调用API生成文本"的新鲜感,很快陷入了"如何把大模型做成可用产品"的困境------单独调用GPT-4 API只能实现简单对话,想让它连接数据库、处理本地文档、自主调用工具,需要写大量重复且繁琐的胶水代码。

直到LangChain的出现,彻底改变了这一现状。它就像大模型应用开发的"脚手架",把复杂的流程抽象成可拼接的组件,让我们不用重复造轮子,专注于核心业务逻辑。本章将从基础认知、发展历程、框架对比,到动手实战,带你快速入门LangChain,为后续学习打下坚实基础。

1.1 什么是 LangChain?为什么需要它?

1.1.1 一句话读懂LangChain

LangChain 是一个开源的大模型应用编排框架,核心作用是"连接"------连接大语言模型(LLM)与外部数据源(文档、数据库、API)、工具(搜索、计算、自动化工具),并通过"链式调用"将多个组件组合起来,快速构建复杂的AI应用(如智能问答、聊天机器人、RAG知识库等)。

简单说:LLM是"大脑",LangChain是"神经网络",负责把大脑的能力传递到各个场景,让大脑能"看见"外部数据、"使用"各类工具,而不只是一个孤立的文本生成器。

1.1.2 为什么我们需要LangChain?

没有LangChain,开发大模型应用会面临3个核心痛点,这也是它诞生的核心原因:

  1. 重复造轮子:每次开发新应用,都要重新写"调用LLM、处理对话历史、连接外部工具"的代码,效率极低;

  2. 流程难编排:复杂场景(如"提问→搜索→分析结果→生成回答")需要手动管理组件间的依赖和数据流转,逻辑混乱且易出错;

  3. 扩展性差:更换LLM(如从GPT-3.5换成 llama 3)、替换向量数据库(如从FAISS换成Pinecone),需要大面积修改代码。

而LangChain的核心价值,就是解决这3个痛点:通过模块化设计,让组件可复用、可替换;通过链式调用,让复杂流程可编排、可调试;通过统一接口,让开发者无需关注底层细节,快速实现从原型到产品的落地。

1.1.3 核心应用场景

LangChain的应用场景几乎覆盖所有LLM驱动的场景,最常见的有4类:

  • RAG(检索增强生成):连接本地文档、PDF、网页,让LLM基于指定数据生成回答(企业知识库、文档问答);

  • 聊天机器人:支持多轮对话记忆,实现拟人化交互(客服机器人、私人助手);

  • 智能工具调用:让LLM自主决定调用搜索、计算、数据库查询等工具(智能数据分析、自动化办公);

  • 多模态应用:结合文本、图片、音频,构建多模态交互应用(图文生成、语音问答)。

1.2 LangChain 的发展历程与生态全景

1.2.1 发展历程(关键节点)

LangChain 由 Harrison Chase 于2022年10月正式推出,恰逢ChatGPT引爆生成式AI浪潮,凭借"降低LLM应用开发门槛"的核心优势,迅速成为开源社区的明星项目,其发展历程可分为4个关键阶段:

  1. 2022年10月 - 初创期:LangChain 在GitHub发布首个版本,核心功能是"Prompt模板"和"简单链式调用",主打"快速原型开发",解决开发者"重复写调用代码"的痛点;

  2. 2023年 - 爆发期:GitHub星标数突破38000,成为年度增速最快的开源项目之一。推出LangSmith调试平台,完善RAG、Agent等核心功能,生态开始扩张,支持更多LLM和工具集成;

  3. 2024年 - 商业化与成熟化:完成红杉资本领投的融资,发布LangServe部署工具,支持将LangChain应用部署为REST API,推动企业级落地;同时优化核心库,解决"抽象过重"的争议;

  4. 2025年至今 - 生态完善期:推出langgraph库,强化多智能体系统构建能力;深化与云平台、垂直行业的合作,持续优化多模态支持,愿景是成为"大模型应用开发的通用语言"。

截至2026年3月,LangChain GitHub星标数已突破70k+,成为大模型应用开发领域最主流的框架之一,拥有庞大的开发者社区和丰富的第三方集成。

1.2.2 生态全景(核心组件与集成)

LangChain的生态围绕"模块化、可扩展"展开,核心分为3部分:核心库、工具集成、辅助平台,形成了"开发-调试-部署"的完整闭环,具体如下:

1. 核心库(langchain-core)

LangChain的核心骨架,包含所有基础组件,是构建应用的基础,关键组件有:

  • 模型(Models):统一的LLM调用接口,支持OpenAI、Anthropic、Meta(llama 3)、Google等主流模型,以及本地部署的开源模型;

  • 提示(Prompts):Prompt模板、少样本提示、提示优化等功能,简化提示工程的复杂度;

  • 链(Chains):将多个组件串联起来,实现复杂流程(如LLMChain、SequentialChain);

  • 记忆(Memory):管理多轮对话上下文,让LLM"记住"之前的交互内容;

  • 工具(Tools):定义外部工具的调用接口,支持搜索、数据库、API等工具的集成;

  • 检索(Retrievers):连接向量数据库,实现外部数据的检索,是RAG场景的核心组件。

2. 工具集成(生态核心优势)

LangChain的最大优势之一就是"生态丰富",已集成100+第三方工具和服务,覆盖4大类别:

  • 大语言模型(LLM):OpenAI、Anthropic(Claude)、Google(Gemini)、Meta(llama 3)、Hugging Face等;

  • 向量数据库:FAISS、Pinecone、Chroma、Milvus等,用于存储和检索文本嵌入;

  • 外部工具:Google搜索、Bing搜索、Python解释器、数据库(MySQL、PostgreSQL)、Slack、邮件等;

  • 文档加载器:支持PDF、Word、Excel、Markdown、网页等多种格式的文档加载。

3. 辅助平台(开发-部署闭环)

为了降低开发和部署成本,LangChain官方推出了2个核心辅助平台:

  • LangSmith:调试、监控和评估平台,可查看链的运行日志、优化Prompt、评估回答质量,解决"链式调用难调试"的痛点;

  • LangServe:部署工具,可将LangChain的链或Agent快速部署为REST API,方便集成到Web应用、APP等产品中。

1.3 LangChain 与其他框架对比(LlamaIndex、Haystack 等)

在大模型应用开发领域,除了LangChain,还有LlamaIndex、Haystack、DSPy等主流框架,它们各有侧重,不存在"绝对最优",只有"最适合场景"。下面从核心定位、优势、劣势、适用场景4个维度,做详细对比,帮你快速选型。

1.3.1 核心框架对比表

框架 核心定位 核心优势 核心劣势 适用场景
LangChain 通用型LLM应用编排框架 1. 生态最广,集成工具最多;2. 社区活跃,文档完善;3. 支持Agent自主决策;4. 入门门槛低,适合快速原型验证 1. 抽象层级过多,调试困难;2. RAG实现需手动拼接组件,代码冗余;3. 高并发场景支持较弱 MVP快速验证、多工具集成的Agent开发、通用型LLM应用(聊天机器人、简单RAG等)
LlamaIndex RAG专用框架(原GPT Index) 1. 开箱即用的RAG流程,一行代码完成文档加载→检索→生成;2. 文档处理能力强,支持多种分块策略;3. 与LangChain兼容,可混合使用 1. 功能聚焦RAG,不适合非检索类任务;2. 高级功能(如Graph RAG)仍在演进中 企业知识库问答、文档智能分析、私有数据增强生成(纯RAG场景)
Haystack 企业级NLP Pipeline编排引擎 1. 生产就绪,支持REST API、Docker部署、指标监控;2. 组件高度解耦,便于替换;3. 内置评估工具,适合A/B测试 1. 学习曲线较陡,需理解Pipeline与Node概念;2. 社区规模小于LangChain 企业级RAG系统、需要高稳定性、可审计、可监控的生产环境应用
DSPy 声明式RAG优化框架(斯坦福开源) 1. 声明式编程,代码极简;2. 支持自动优化Prompt和检索策略;3. 适合研究与实验驱动型项目 1. 生态尚不成熟,文档较少;2. 对工程部署支持有限,更适合实验环境 AI研究、Prompt工程自动化、需要持续优化RAG性能的实验项目

1.3.2 选型建议(新手必看)

  • 如果你是新手,想快速入门,尝试各种LLM应用场景(不限于RAG),优先选LangChain------社区资源多,踩坑成本低;

  • 如果你的需求只专注于RAG(如企业知识库),且追求高效开发,优先选LlamaIndex------开箱即用,无需手动拼接组件;

  • 如果你的项目需要部署到生产环境,且要求高稳定性、可监控,优先选Haystack------企业级特性完善;

  • 如果你的项目是研究型,需要优化RAG性能、自动调优Prompt,可尝试DSPy------创新的声明式编程理念。

补充:LangChain与LlamaIndex可混合使用(如用LlamaIndex做检索,LangChain做Agent),灵活应对复杂场景。

1.4 LangChain 的核心设计理念:"最后一公里"问题

很多人用LangChain,只知道它能"拼组件、写链式调用",但很少有人关注它的核心设计理念------解决大模型应用开发的"最后一公里"问题

1.4.1 什么是"最后一公里"问题?

大模型的"第一公里"是模型训练(如OpenAI训练GPT-4),解决"能生成符合人类语言的文本";而"最后一公里"是"将大模型落地到具体场景",解决"如何让大模型有用、好用"的问题。

举个例子:OpenAI的GPT-4本身很强大,但它无法直接读取你的本地PDF、无法查询你公司的数据库、无法自主调用搜索工具------这些"落地场景"的需求,就是"最后一公里"的痛点。

LangChain的所有设计,都是围绕"打通最后一公里"展开的,核心要解决3个关键问题:

  1. 上下文感知:让LLM能"记住"对话历史、"理解"当前场景,而不是孤立地生成文本(通过Memory组件实现);

  2. 外部连接:让LLM能"访问"外部数据和工具,打破"预训练数据有限"的限制(通过Retrievers、Tools组件实现);

  3. 流程自动化:让LLM能"自主决策",根据用户需求,自动调用工具、处理数据、生成最终回答(通过Agent、Chains组件实现)。

1.4.2 设计理念的核心:模块化与可组合性

为了打通"最后一公里",LangChain采用了"模块化+可组合"的核心设计,具体体现为2点:

  1. 模块化:将大模型应用的各个环节(调用LLM、处理Prompt、管理记忆、检索数据、调用工具)拆分成独立的组件,每个组件负责单一功能,可单独修改、替换;

  2. 可组合:通过"链(Chains)"将多个组件串联或并联,形成复杂的业务流程。比如"Prompt模板 → LLM调用 → 记忆存储 → 工具调用",可根据需求自由组合。

这种设计的优势的是:开发者无需从零开发,只需像"搭积木"一样,组合现有组件,就能快速实现复杂场景;同时,当需求变化时(如更换LLM、替换向量数据库),只需修改对应组件,无需重构整个代码。

1.4.3 从"玩具"到"工具"的进化

LangChain初期的设计,主要聚焦"降低入门门槛",让开发者能用"五行代码"快速实现原型,但这也带来了"抽象过重、可控性不足"的问题------当原型要落地到生产环境时,会出现调试困难、流程易崩等问题。

因此,LangChain在1.0版本中,通过LangGraph和中间件系统,实现了从"玩具"到"工具"的进化:既保留了"快速拼接组件"的易用性,又增加了生产级的可控性(如检查点恢复、流式输出、人机协作接口),真正打通了"原型→生产"的最后一公里。

1.5 Python 为何是 LangChain 的首选语言

LangChain 支持Python和JavaScript/TypeScript两种语言(分别对应langchain和langchain-js),但官方和社区的核心精力都集中在Python上,Python也是绝大多数开发者的首选语言。核心原因有4点,尤其适合新手入门:

1.5.1 生态适配:大模型与数据工具的"第一语言"

大模型领域的核心工具和库,几乎都优先支持Python:

  • LLM API:OpenAI、Anthropic、Hugging Face等官方SDK,均优先提供Python版本,调用更便捷;

  • 数据处理:Pandas、NumPy、OpenCV等数据处理库,可无缝与LangChain集成,处理文本、图片等多模态数据;

  • 向量数据库:FAISS、Chroma、Pinecone等,均提供Python SDK,与LangChain的检索组件可一键对接;

  • 部署工具:FastAPI、Flask等Web框架,可快速将LangChain应用部署为API,与Python生态完美兼容。

简单说:用Python开发LangChain应用,能"一站式"搞定"数据处理→模型调用→部署上线",无需跨语言切换,效率更高。

1.5.2 开发效率:简洁语法+快速迭代

Python的语法简洁、可读性强,相比JavaScript/TypeScript,更适合快速原型开发和迭代:

  • 无需编译,写完代码即可运行,适合调试链式调用的复杂流程;

  • 语法简洁,实现相同功能,Python代码量远少于其他语言(如Java);

  • 支持交互式开发(如Jupyter Notebook),可逐行调试,快速定位问题。

对于LangChain这样"组件拼接、流程调试"为主的开发场景,Python的优势尤为明显。

1.5.3 社区支持:资源最丰富,踩坑成本最低

LangChain的Python社区远大于JavaScript社区:

  • GitHub上,langchain(Python)的星标数是langchain-js的3倍以上,更新频率更高;

  • 掘金、CSDN、Stack Overflow等平台,Python版本的教程、问题解答、实战案例远多于其他语言;

  • 第三方插件和集成,优先支持Python版本(如很多自定义工具、文档加载器,仅提供Python实现)。

对于新手来说,丰富的社区资源意味着"遇到问题能快速找到解决方案",大大降低学习和开发成本。

1.5.4 灵活性:兼顾新手与资深开发者

Python的灵活性,完美匹配LangChain的设计理念:

  • 新手:可直接使用LangChain的高层API,无需关注底层细节,快速实现功能;

  • 资深开发者:可通过自定义组件(如自定义Prompt模板、自定义工具),灵活扩展LangChain的功能,满足复杂场景需求。

补充:如果你的需求是"前端+LLM应用"(如网页聊天机器人),可选择langchain-js;如果是后端服务、数据处理、RAG、Agent等场景,优先选Python。

1.6 官方文档与社区资源快速导航

学习LangChain,无需死记硬背API,关键是学会"查资料"。下面整理了最核心的官方文档和社区资源,收藏这一节,就能快速找到你需要的信息(所有链接均为官方或权威来源,可直接访问)。

1.6.1 官方核心资源(必收藏)

1.6.2 社区学习资源(新手首选)

1. 国内社区(中文资源)

  • 掘金:搜索"LangChain",有大量新手教程、实战案例(如RAG、Agent开发),贴合国内开发者需求;

  • CSDN:LangChain专栏,包含详细的API解析和问题排查教程;

  • LangChain 中文社区:langchainchina.com/(国内开发者交流平台,可提问、分享案例)。

2. 国外社区(英文资源)

  • LangChain Discord:discord.com/invite/lang...(官方社区,可与核心开发者交流,提问解答);

  • Stack Overflow:搜索"LangChain",可找到大量实际开发中的问题及解决方案;

  • YouTube:LangChain官方频道,有详细的视频教程,包含实战演示。

1.6.3 实用工具与插件(提升开发效率)

  • LangChain Hub:hub.langchain.com/(官方Prompt模板、链模板仓库,可直接复用);

  • LangChain CLI:命令行工具,可快速创建LangChain项目、部署应用;

  • Hugging Face Hub:huggingface.co/models(可下载开源LLM、Embedding模型,与LangChain无缝集成)。

1.6.4 学习技巧(新手必看)

  1. 官方文档的"Getting Started"章节是新手入门的最佳路径,先跟着完成基础示例,再深入学习核心组件;

  2. 遇到问题,优先查官方文档的API参考,再去社区搜索(避免被过时的教程误导);

  3. 关注LangChain GitHub的"Releases"页面,及时了解版本更新和新功能(如langgraph、中间件系统)。

1.7 本书学习路线与配套代码说明

为了帮助大家系统掌握LangChain,避免"碎片化学习",下面明确本书的学习路线和配套代码说明,无论你是新手还是有一定基础的开发者,都能快速跟上节奏。

1.7.1 学习路线(从入门到精通)

本书采用"循序渐进、实战驱动"的学习路线,共分为5个阶段,对应后续章节,确保每一步都有明确的学习目标和实战成果:

  1. 第一阶段:基础入门(第1章):认识LangChain、了解核心概念、完成第一个LangChain程序,建立基础认知;

  2. 第二阶段:核心组件(第2-6章):逐一学习LangChain的核心组件(Prompt、Model、Chain、Memory、Retriever),掌握每个组件的使用方法和实战技巧;

  3. 第三阶段:实战场景(第7-10章):聚焦核心应用场景(RAG知识库、聊天机器人、Agent工具调用、多模态应用),手把手教你开发完整项目;

  4. 第四阶段:优化与部署(第11-12章):学习LangChain应用的优化技巧(Prompt优化、性能优化),以及部署方法(LangServe、Docker部署);

  5. 第五阶段:高级进阶(第13-15章):学习自定义组件、LangGraph多智能体、企业级实践,提升开发能力,应对复杂场景。

学习建议:不要跳过任何一个阶段,基础组件是后续实战的核心,只有掌握了组件的使用,才能灵活组合出复杂的应用。

1.7.2 配套代码说明

1. 代码仓库地址(免费获取)

本书所有配套代码,均托管在GitHub上,可直接克隆、运行,地址:github.com/xxx/langcha...(注:实际使用时替换为真实仓库地址)。

2. 代码结构说明

代码仓库按章节划分,结构清晰,便于查找和运行:

bash 复制代码
langchain-learning/
├── chapter01/  # 第1章 初识LangChain
│   ├── hello_langchain.py  # 第一个LangChain程序
│   └── requirements.txt    # 依赖包清单
├── chapter02/  # 第2章 Prompt模板
│   ├── basic_prompt.py     # 基础Prompt示例
│   └── advanced_prompt.py  # 高级Prompt示例
└── ...  # 后续章节代码

3. 环境要求

为了确保代码能正常运行,建议使用以下环境配置:

  • Python 版本:3.8+(推荐3.10,兼容性最好);

  • LangChain 版本:最新稳定版(本书代码基于LangChain 1.0+编写);

  • 依赖包安装:每个章节的requirements.txt文件中,包含该章节所需的所有依赖,执行pip install -r requirements.txt即可安装。

4. 注意事项

  • 代码中涉及LLM API(如OpenAI)的部分,需要替换为你自己的API密钥(如何获取API密钥,将在后续章节详细说明);

  • 部分代码(如RAG、工具调用)需要联网运行,确保网络通畅;

  • 代码会持续更新,适配LangChain的最新版本,若运行出错,可查看仓库的README文件,获取最新说明。

1.8 动手体验:你的第一个 LangChain 程序

理论再多,不如动手实践。本节将带你搭建LangChain环境,编写第一个LangChain程序------一个简单的"对话机器人",实现多轮对话功能,让你直观感受LangChain的便捷性。

本示例使用OpenAI的GPT-3.5-turbo模型(最常用、成本低),代码简洁,注释详细,新手也能轻松上手。

1.8.1 环境搭建(3步完成)

步骤1:安装Python环境

若未安装Python,前往Python官方网站下载,选择3.8+版本,安装时勾选"Add Python to PATH",便于命令行调用。

步骤2:安装LangChain和OpenAI依赖

打开命令行,执行以下命令,安装所需依赖(指定最新稳定版):

bash 复制代码
pip install langchain==0.1.10 openai==1.13.3 python-dotenv

依赖说明:

  • langchain:核心框架;

  • openai:OpenAI官方SDK,用于调用GPT模型;

  • python-dotenv:用于加载环境变量(存储API密钥,避免硬编码)。

步骤3:获取OpenAI API密钥

  1. 前往OpenAI平台,注册/登录账号;

  2. 进入"Personal → View API keys",点击"Create new secret key",生成API密钥;

  3. 新建一个.env文件,将API密钥写入,格式如下:

env 复制代码
OPENAI_API_KEY=你的API密钥

注意:API密钥属于敏感信息,切勿硬编码到代码中,也不要泄露给他人。

1.8.2 编写第一个LangChain程序

新建一个hello_langchain.py文件,复制以下代码(注释详细,可直接运行),代码来源:LangChain官方入门示例(python.langchain.com/docs/get_st...):

python 复制代码
# 导入所需组件
from langchain_openai import ChatOpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory
from dotenv import load_dotenv
import os

# 加载环境变量(读取.env文件中的API密钥)
load_dotenv()

# 1. 初始化LLM(使用GPT-3.5-turbo)
llm = ChatOpenAI(
    model_name="gpt-3.5-turbo",  # 模型名称
    temperature=0.7,  # 随机性,0-1,值越小越严谨
    api_key=os.getenv("OPENAI_API_KEY")  # 从环境变量获取API密钥
)

# 2. 初始化记忆组件(用于存储多轮对话历史)
memory = ConversationBufferMemory()

# 3. 初始化对话链(组合LLM和记忆组件)
conversation_chain = ConversationChain(
    llm=llm,
    memory=memory,
    verbose=True  # 开启详细日志,可查看链的运行过程
)

# 4. 开始多轮对话
print("欢迎使用LangChain对话机器人!输入'退出'结束对话。")
while True:
    user_input = input("你:")
    if user_input == "退出":
        print("机器人:再见!")
        break
    # 调用对话链,获取回答
    response = conversation_chain.predict(input=user_input)
    print(f"机器人:{response}")

1.8.3 运行程序并测试

  1. 将.env文件和hello_langchain.py文件放在同一目录下;

  2. 打开命令行,进入该目录,执行以下命令:

bash 复制代码
python hello_langchain.py
  1. 测试对话(示例):
text 复制代码
欢迎使用LangChain对话机器人!输入'退出'结束对话。
你:介绍一下LangChain
机器人:LangChain是一个用于构建大语言模型(LLM)应用的开源框架,它的核心作用是将LLM与外部数据源、工具等连接起来,通过链式调用组合多个组件,帮助开发者快速构建复杂的AI应用,比如聊天机器人、知识库问答、智能工具调用等...
你:它的核心组件有哪些
机器人:LangChain的核心组件主要包括以下几类:1. 模型(Models):统一调用各类LLM;2. 提示(Prompts):管理和优化Prompt;3. 链(Chains):组合组件实现复杂流程;4. 记忆(Memory):存储对话历史;5. 工具(Tools):集成外部工具;6. 检索(Retrievers):连接外部数据检索...
你:退出
机器人:再见!

1.8.4 代码解析(关键知识点)

这个简单的程序,已经用到了LangChain的3个核心组件,提前帮你铺垫后续知识点:

  1. ChatOpenAI:LangChain封装的OpenAI聊天模型接口,统一了LLM的调用方式,后续更换其他模型(如llama 3),只需修改这部分代码;

  2. ConversationBufferMemory:最基础的记忆组件,用于存储完整的对话历史,让LLM能"记住"之前的对话内容,实现多轮对话;

  3. ConversationChain:预定义的对话链,已经帮我们封装了"Prompt模板→LLM调用→记忆存储"的流程,无需手动拼接组件。

思考:如果没有LangChain,我们需要手动调用OpenAI API、手动存储对话历史、手动拼接Prompt,代码量会增加很多,这就是LangChain的价值所在。

1.8.5 常见问题排查

  • 问题1:运行报错"API key not provided"------检查.env文件是否正确,API密钥是否填写正确,是否加载了环境变量;

  • 问题2:运行报错"Rate limit exceeded"------OpenAI API有调用频率限制,可等待片刻再试,或升级API套餐;

  • 问题3:对话无法记住历史------检查是否初始化了Memory组件,并将其传入ConversationChain。

本章小结

本章我们从基础认知出发,了解了LangChain的定义、发展历程、核心设计理念,对比了它与其他主流框架的差异,掌握了官方资源的使用方法,并动手编写了第一个LangChain程序。

核心要点回顾:

  • LangChain是大模型应用的"脚手架",核心价值是"连接"和"编排",解决"最后一公里"问题;

  • LangChain的优势是生态丰富、入门门槛低,适合快速原型开发,缺点是抽象过重,调试难度较大;

  • Python是LangChain的首选语言,生态适配性、开发效率和社区支持都更有优势;

  • 动手实践是学习LangChain的关键,第一个程序虽然简单,但已经涵盖了"LLM+记忆+链"的核心逻辑。

下一章,我们将深入学习LangChain的核心组件------Prompt模板,掌握Prompt工程的技巧,让LLM生成更精准、更符合需求的回答。

相关推荐
java1234_小锋2 小时前
基于LangChain的RAG与Agent智能体开发 - 阿里云百炼大模型平台接入
langchain·rag
人工干智能2 小时前
科普:OpenClaw、大模型、通道及云端养虾
网络·人工智能·llm
狐572 小时前
2026-03-14-Claude Code配置火山方舟Coding Plan(豆包)指南
ai编程
xier_ran2 小时前
【第二周】RAG与Agent实战09:LangChain访问阿里云通义大模型
阿里云·langchain·云计算
是烨笙啊3 小时前
AI编程:重构的那些事儿
重构·ai编程
helson赵子健5 小时前
从深圳到伦敦,与自己和解,与热爱重逢
ai编程·求职
小超同学你好5 小时前
OpenClaw 中的 Skills 机制与复现
人工智能·语言模型·langchain
草梅友仁10 小时前
墨梅博客 1.9.0 发布与 LeanCloud 停服应对 | 2026 年第 11 周草梅周报
开源·github·ai编程
github.com/starRTC11 小时前
openclaw系列1:安装
ai编程