LangChain - 构建 AI 应用的强大框架

一、什么是 LangChain?

LangChain 是一个用于开发基于大语言模型(LLM)应用程序的框架,它提供了一系列工具和抽象,让开发者能够更容易地构建复杂的 AI 应用。

二、核心概念

1. 基础组件

从示例代码中我们可以看到几个重要的基础组件:

1. 环境配置

js 复制代码
import os
os.environ["OPENAI_API_KEY"] = "your-api-key"
os.environ["OPENAI_BASE_URL"] = "your-base-url"

2. 聊天模型

js 复制代码
from langchain_openai import ChatOpenAI
chat = ChatOpenAI(
    model="gpt-3.5-turbo",
    temperature=0.8,
    max_tokens=60    
)

3. 基础LLM

js 复制代码
from langchain_openai import OpenAI
llm = OpenAI(model_name="gpt-3.5-turbo-instruct")

2. 消息类型

LangChain 支持多种消息类型:

js 复制代码
from langchain.schema import (
    SystemMessage,  # 系统消息
    HumanMessage    # 用户消息
)
messages = [
    SystemMessage(content="你是一个很棒的风水师"),
    HumanMessage(content="请给我的花店起个名")
]

3. 模板系统

LangChain 提供了强大的模板系统:

js 复制代码
from langchain.prompts import PromptTemplate
template = """你是一位专业的鲜花店的文案撰写员。
对于售价为{price} 元的{flower_name},你能提供一个吸引人的简短描述吗?
"""
prompt = PromptTemplate.from_template(template)
input = prompt.format(flower_name="玫瑰",price="99")

三、实际应用示例

1. 简单对话

js 复制代码
chat = ChatOpenAI(    model="gpt-3.5-turbo",   
temperature=0.8,    
max_tokens=60    
)

messages = [    SystemMessage(content="你是一个很棒的风水师"),
HumanMessage(content="请给我的花店起个名")]

response = chat(messages)
print(response.content)

2. 模板化文案生成

js 复制代码
template = """你是一位专业的鲜花店的文案撰写员。
对于售价为{price} 元的{flower_name},你能提供一个吸引人的简短描述吗?
"""

prompt = PromptTemplate.from_template(template)

input = prompt.format(flower_name="玫瑰",price="99")

model = OpenAI(model_name="gpt-3.5-turbo-instruct")output = model.invoke(input)

2. 格式化输出格式

js 复制代码
# 格式化输出
from langchain.output_parsers import StructuredOutputParser, ResponseSchema

response_schemas = [
    ResponseSchema(name="description",description="鲜花的描述文案"),
    ResponseSchema(name="reason",description="为什么要这样写这个文案"),
]

output_parser = StructuredOutputParser.from_response_schemas(response_schemas)
print(output_parser)

format_instruction = output_parser.get_format_instructions()
print(format_instruction)

output = PromptTemplate.from_template(template,
partial_variables={"format_instruction":format_instructions})

input = prompt.format_prompt(
    flower_name="玫瑰",
    price="99",
    format_instruction=format_instruction
)
print(input)

output = model.invoke(input)
print(output)
相关推荐
gyratesky2 小时前
使用SD+LoRA训练IP角色出图
aigc·设计
墨风如雪2 小时前
告别音画不同步!阿里 OmniTalker 开源:让文本『一开口』就声情并茂
aigc
Goboy4 小时前
手摸手教你用可视化技术打开AI模型的黑箱
人工智能·aigc·ai编程
Goboy4 小时前
JupyterLab实践指南,从零开始构建ChatterBot的AI聊天机器人
人工智能·aigc·ai编程
charles_vaez6 小时前
开源模型应用落地-模型上下文协议(MCP)-从数据孤岛到万物互联(一)
深度学习·aigc·agi
kebijuelun15 小时前
Meta 最新发布的 Llama 4:多模态开源大模型全面解析
人工智能·语言模型·aigc·llama
九歌AI大模型21 小时前
我悟了!论MCP Server与工作流在智能体开发场景中的作用和区别
aigc
LeeZhao@1 天前
【AGI】Llama4:大模型与多模态领域的里程碑,通往AGI的阶梯
人工智能·yolo·计算机视觉·aigc·agi
Goboy1 天前
当电影评论遇上人工智能,用NLTK解锁文本中的情感密码
人工智能·aigc·ai编程
Goboy1 天前
手把手教你用深度学习玩转图像风格迁移
人工智能·aigc·ai编程