大模型 chat 接口的标准消息格式

{"role": "user", "content": query}是 OpenAI / 大模型 chat 接口的标准消息格式,告诉模型"这是来自用户的一条消息,内容是 query 变量里的字符串"。

拆开看

python 复制代码
{
  "role": "user",       # ← 谁说的
  "content": query      # ← 说了啥
}
字段 含义
role 消息发送者的身份角色,固定枚举值
content 消息的实际文本内容(也支持图片、工具结果等结构化内容)

role 的四种合法值

role 谁说的 示例
system 系统/开发者,给模型设定身份和规则 "你是一个写代码的助手"
user 用户输入 "帮我写一个排序函数"
assistant 模型自己之前说过的话 "好的,下面是代码..."
tool 工具执行的返回结果 "ls 命令输出: file1.txt"

具体场景

看主循环这段:

python 复制代码
while True:
    query = input("\033[36m >> \033[0m")   # 用户在终端输入
    ...
    history.append({"role": "user", "content": query})  # ← 把用户输入封装成"用户消息"
    agent_loop(history)                                  # 把整个历史传给模型

为什么要包成这个结构?因为模型 API 不接受裸字符串,它要的是一个消息列表,每条消息都必须标注角色:

python 复制代码
history = [
    {"role": "user",      "content": "看下当前目录有啥"},
    {"role": "assistant", "content": "", "tool_calls": [...]},   # 模型决定调 bash
    {"role": "tool",      "tool_call_id": "...", "content": "file1.txt"},  # bash 返回
    {"role": "assistant", "content": "目录里有 file1.txt"},      # 模型最终回答
    {"role": "user",      "content": "再看下文件大小"},          # ← 你下一次输入
]

模型拿到这个列表,就能"看懂"整段对话上下文。

为什么需要 role 这个字段?

  1. 区分发言人:不告诉模型"这是你之前说的"还是"用户新说的",模型会混乱
  2. 训练时就这么对齐 :模型在训练阶段看到的就是 role + content 的格式,推理时必须保持一致
  3. 支持多轮对话 :通过滚动追加 role: user / role: assistant 形成上下文

一句话

{"role": "user", "content": query} = "这条消息是用户说的,内容是 query 这个字符串",是大模型 chat API 必备的消息封装格式。

相关推荐
MediaTea1 小时前
人工智能通识课:机器学习之无监督学习
人工智能·深度学习·学习·机器学习
数字会议深科技1 小时前
政务表决会议升级方案解析|多形态大型表决系统融合方案科普
大数据·人工智能·政务·无纸化·会议厂商·ai会议生态服务商·表决系统
敲敲千反田1 小时前
Spring AI
java·人工智能·spring
SelectDB技术团队1 小时前
时间序列近邻关联性能实测:Doris ASOF JOIN 领先 ClickHouse、DuckDB
数据库·人工智能·selectdb
阿里云大数据AI技术1 小时前
基于Agentic Memory API实现OpenClaw长记忆增强
人工智能·agent
五度易链-区域产业数字化管理平台1 小时前
基于大数据+AI的智慧招商解决方案:五度易链重构产业招商数字化体系
人工智能
薛定猫AI1 小时前
【深度解析】Hermes Agent 新版能力:后台 Computer Use、多智能体编排与 /goal 自主任务循环实战
人工智能
互联网科技看点1 小时前
泛微・齐业成核心优势深度解析:数智化费控管理标杆
大数据·人工智能·云计算
Aision_2 小时前
OpenClaw和Hermes的记忆有什么区别
人工智能·gpt·langchain·prompt·aigc·agi