langchain 入门指南(四)- 指定大语言模型的角色

前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站

使用过 OpenAI 或者其他 LLM 的人应该都知道,有时候 LLM 会回答得不那么准确。

这是因为,LLM 可能并不知道你问题的背景是什么,所以只能从它大量学习到的数据中,找到一个最接近的答案,

但可能这个答案跟我们实际想要的答案相去甚远。

指定角色

如果我们为 LLM 指定一个角色,那么就等于给了 LLM 一个明确的指示,为它提供了一个上下文框架,这样它就能使用相关的知识来回答问题。

下面是一些例子:

指定为翻译

python 复制代码
from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage

chat = ChatOpenAI(
    model="yi-large",
    temperature=0.3,
    max_tokens=200,
    api_key='your key',
    base_url="https://api.lingyiwanwu.com/v1",
)

messages = [
    SystemMessage(content="你是一名翻译,把用户的输入翻译为英语"),
    HumanMessage(content="今天天气真好"),
]

response = chat.invoke(messages)

print(response.content)

指定为 程序员

python 复制代码
from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage

chat = ChatOpenAI(
    model="yi-large",
    temperature=0.3,
    max_tokens=200,
    api_key='your key',
    base_url="https://api.lingyiwanwu.com/v1",
)

messages = [
    # 如果设定的是翻译角色,那么 LLM 只是翻译 ruby 是什么
    # SystemMessage(content="你是一名翻译"),
    SystemMessage(content="你是一名程序员"),
    HumanMessage(content="ruby是什么"),
]

response = chat.invoke(messages)

print(response.content)

在上面的例子中,我们可以看到,在给 LLM 设定的角色是翻译的时候,我问他它 ruby 是什么,它直接翻译成中文给我。

但是当我给它设定的角色是程序员的时候,它就给我回答了 ruby 是一种编程语言。

指定上下文

下面这个例子中,我们为 LLM 提供了一个上下文,这样 LLM 就能更好地回答我们的问题。

如果我们直接问 LLM 我想查询所有年龄大于 18 岁的用户,应该怎么写 SQL 语句? 的话,它可能会回答得不那么准确,因为它并不知道我们的表结构是怎样的。

python 复制代码
from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage

chat = ChatOpenAI(
    model="yi-large",
    temperature=0.3,
    max_tokens=200,
    api_key='your key',
    base_url="https://api.lingyiwanwu.com/v1",
)

messages = [
    SystemMessage(content="你是一名 MySQL DBA"),
    HumanMessage(content=""""
    假设我有一个 user 表,里面有 id, name, age 三个字段,我想查询所有年龄大于 18 岁的用户,应该怎么写 SQL 语句?
    """),
]

response = chat.invoke(messages)

print(response.content)

总结

如果我们想从 LLM 那里得到更加精确、高质量的答案,我们就需要为它指定一个角色,或者给他提供更多跟我们问题相关的内容。

当然,我们没办法给他提供太多的上下文,因为这样会让 LLM 处理很久,需要更昂贵的价格,同时,每个 LLM 的最大输入长度也是有限制的。

相关推荐
墨染天姬16 小时前
[AI]OPENAI的PPO算法
人工智能·算法
sheji10516 小时前
割草机器人行业市场分析报告
大数据·人工智能·microsoft
xixixi7777716 小时前
AI安全周记:AI驱动攻击占比50%、PQC国标落地、ShinyHunters连环袭击——面对1:25的攻防成本鸿沟,防守方还能撑多久?
人工智能·安全·ai·大模型·aigc·量子计算·供应链
生活观察站16 小时前
淄博抖音推广公司实测评测2026年更新:效果与性价比双维度对比
大数据·人工智能
oort12316 小时前
奥尔特云 VLStream 视觉 AI 平台采用 MIT 协议开源,贯通标注、训练、部署全流程,集成视频物联核心能力,支持私有化部署与多场景智能化应用
人工智能·开源
草履虫君16 小时前
原电脑只运行了:npm install -g openclaw 要把它迁移到一个新电脑,怎么操作,菜鸟教程
经验分享·ai·npm
Bruce_Liuxiaowei16 小时前
企业国有资产法修订与县级融媒体资产管理的客观解读
人工智能·媒体
jinanwuhuaguo16 小时前
OpenClaw执行奇点——因果链折叠与责任悬置的时间哲学(第十九篇)
前端·人工智能·安全·重构·openclaw
科技快报16 小时前
smardaten软件交付工作坊首发亮相软件渠道生态大会 华北峰会,AI赋能渠道伙伴增长
人工智能
JAVA面经实录91716 小时前
Spring Boot + Spring AI 一体化实战全文档
java·人工智能·spring boot·spring