Coze - AI Agent 智能体开发

目录

[1. 什么是智能体](#1. 什么是智能体)

[2. 创建智能体](#2. 创建智能体)

[3. 智能体模式选择](#3. 智能体模式选择)

[4. 模型设置与优化](#4. 模型设置与优化)

[4.1 模型选择](#4.1 模型选择)

[4.2 模型工作过程](#4.2 模型工作过程)

[4.3 模型参数配置](#4.3 模型参数配置)

[4.3.1 生成多样性(温度-Temperature)](#4.3.1 生成多样性(温度-Temperature))

[4.3.2 输入及输出设置](#4.3.2 输入及输出设置)

[4.3.2.1 携带上下文轮数](#4.3.2.1 携带上下文轮数)

[4.3.2.2 最大回复长度](#4.3.2.2 最大回复长度)

[5. 提示词(prompt)编写](#5. 提示词(prompt)编写)

[5.1 系统提示词 vs 用户提示词](#5.1 系统提示词 vs 用户提示词)

[5.2 系统提示词的结构](#5.2 系统提示词的结构)

[6. 编写开场白](#6. 编写开场白)

[7. 发布智能体](#7. 发布智能体)


1. 什么是智能体

传统的 LLM (大语言模型), 也就是我们日常使用的 Gemini/ChatGPT, 这些 LLM 是以 Chatbot(对话框) 的形式存在的, 只有 "脑子" 没有 "手", 只能你一问他一答.

而 Agent (智能体), 是给 LLM 装上了 "手", 它不仅能思考, 还能调用工具, 将代码自动保存到文件中.

2. 创建智能体

进入 Coze 开发平台: https://www.coze.cn/home

点击左侧项目开发.

接下来操作如下:


在左侧设置系统提示词(System Prompt), 让智能体按照我们的要求去回答, 而不是随机的生成内容.

  • 这里在左侧设置的是系统提示词 (System Prompt), 是我们给 AI Agent 制定的 "人设"/规矩.
  • 平时我们在输入框输入的是用户提示词 (User Prompt), 是我们抛给 AI Agent 的问题.

当你点击发送按钮的那一刻, Coze 的后台会做一个 "拼接" 动作, 把 system prompt 和 User prompt 拼成到一起, 发给大模型.

因此, 这俩都是 Prompt(提示词), 因为对于 AI 大脑来说, 它们本质上是拼在一起喂进去的.

中间区域设置一些参数, 如:

  • 调整温度(Temperature):

    • 如果数值设为 0.8 ~ 1.0:它会很有创意,有时候会"胡说八道"(适合写小说).

    • 如果数值设为 0 ~ 0.3 :它会变得非常死板、严谨,每次回答几乎都一样(适合做客服、写代码、做测开助手)。

右侧是预览与调试区 ("验货" 的地方):

  • 不能在这里"设置" prompt。

  • 是在这里测试左边的提示词有没有生效。

  • 比如你在左边写了"拒绝回答游戏问题",你就在右边问它"王者荣耀好玩吗?",看它会不会乖乖闭嘴。

3. 智能体模式选择

智能体模式有三种:

  1. 单 Agent(自主规划模式) : 单个智能体, 独立规划出用户所提问题完整的解决方案(你只管下最终指令,它⾃⼰会思考、会决策、会调⽤各种⼯具来完成任务。
    1. 适合⽬标明确但路径复杂的任务)
  2. 单 Agent(对话流模式) : 单个智能体, 通过预设多轮对话流程引导用户完成任务.
    1. 适合流程标准化、需要引导用户的场景
  3. 多 Agents : 多个智能体协同工作, 每个智能体专门处理一类任务(如: 我要开发一个 App. PM Agent: 负责指挥和分发任务; 前端 Agent: 只管画界面; 后端 Agent: 只管写接口; 测试 Agent: 只管找 Bug)
    1. 适合极其复杂的任务

因为我们现在是学习阶段, 智能体的案例场景都比较简单, 因此我的智能体使用的都是: 单 Agent(自主规划模式).

4. 模型设置与优化

4.1 模型选择

Coze 支持国内多种大模型, 如: deepseek/豆包/千问/Kimi/文心一言.... (暂不支持国外)

不同的模型各有优劣.

4.2 模型工作过程

大模型的工作原理分为以下四个阶段, 我们可以把大模型理解为一个班里的 "学霸":

  1. **数据准备预处理:**给学霸准备大量的学习资料
  2. 模型训练: 学霸按照学习资料去学习. (这是最核⼼、最耗计算资源和时间的⼀步. 其核⼼是⾃监督学习)
  3. 模型推理: ( 此时学霸已经学完了)相当于我们向学霸提问题, 学霸进行回答的过程. 过程如下:
    1. 理解输入: 模型将我们问的问题(提示词)进行分词处理.
      比如你问:"字节跳动在哪?"模型看不懂汉字,它得把它切成小块(Token):["字节", "跳动", "在", "哪", "?"]
    2. 迭代生成: 一个字一个字地去推理答案, 最后进行拼接. (它不是一口气把整段话想好再吐出来的,而是像挤牙膏一样,一个词一个词往外蹦的)
  4. 对齐与微调: 告诉学霸,不能光炫技,要好好说话、有帮助、⽆害.
    1. 微调 :把 "懂很多知识的百科全书" ,变成 "会干具体活的工具人".

    2. 对齐 :把 "口无遮拦的狂人" ,变成 "遵纪守法的好公民".

      1. 比如:

        你问: "怎么配毒药?" 他为了展示自己能干, 立刻给你写了个配方;

        你骂他,他也回骂你.

        这是绝对不行的, 就需要对模型进行对齐处理.

4.3 模型参数配置

给模型设置不同的参数, 模型的输出也是不同的.

4.3.1 生成多样性(温度-Temperature)

生成多样性, 就是我们之前提到的 温度(Temperature):

  • 如果数值设为 0.8 ~ 1.0:它会很有创意,有时候会"胡说八道"(适合写小说).

  • 如果数值设为 0 ~ 0.3 :它会变得非常死板、严谨,每次回答几乎都一样(适合做客服、写代码、做测开助手).

这里推荐设置为 "精确模式-0.3", 因为我们后续也会通过系统提示词去限制模型的输出.

4.3.2 输入及输出设置

4.3.2.1 携带上下文轮数

即智能体能够记忆的历史对话轮数. 轮数越多, 多轮对话的相关性越高, 但消耗的 Token 也越多.

比如: 我这里设置的轮数是 3, 那么智能体智能记忆前三轮的对话, 超过三轮就记不住了.

4.3.2.2 最大回复长度

控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。

如果把输出 tokens 设置的很低, 那么智能体回答的就会不完整:

5. 提示词(prompt)编写

5.1 系统提示词 vs 用户提示词

提示词分为两种:

  • 系统提示词 (System Prompt), 是我们给 AI Agent 制定的 "人设"/规矩.
  • 用户提示词 (User Prompt), 平时我们在输入框输入的内容就是用户提示词, 也是我们抛给 AI Agent 的问题.

当你点击发送按钮的那一刻, Coze 的后台会做一个 "拼接" 动作, 把 system prompt 和 User prompt 拼成到一起, 发给大模型.

因此, 这俩都是 Prompt(提示词), 因为对于 AI 大脑来说, 它们本质上是拼在一起喂进去的.

系统提示词和用户提示词是相辅相成的关系, 并且用户提示词一定要在系统提示词的范围内.

这里可以举个例子, 比如:

我通过系统提示词设定 Agent 是一个诗人, 只会写诗.

如果我通过用户提示词, 让 Agent 给我画一幅画, 那么 Agent 就不会执行.

5.2 系统提示词的结构

系统提示词需清晰定义角色、目标、约束、流程、示例, 推荐使用 CO-STAR 框架:

|---------------|----------|-------------------------------------------|
| 模块 | 说明 | 示例 |
| Context | 任务背景与上下文 | "你是电商客服,需解答用户关于iPhone 15的咨询,知识库包含最新价格和库存" |
| Objective | 核心目标 | "准确回答价格、发货时间,推荐适配配件" |
| Steps | 执行步骤 | "1. 识别用户问题类型;2. 检索知识库;3. 用亲切语气整理回复" |
| Tone | 语言风格 | "口语化,避免专业术语,使用 '亲~' '呢' 等语气词" |
| Audience | 目标用户 | "20-35岁年轻消费者,对价格敏感,关注性价比" |
| Response | 输出格式 | "价格:XXX元\n库存:XXX件\n推荐配件:XXX(链接)" |

6. 编写开场白

通过开场白, 可以和用户打招呼, 并向用户介绍智能体的功能, 提升用户体验.

7. 发布智能体

发布且审核成功后, 就能在商店中看到我们创建的智能体了


END

相关推荐
zhangshuang-peta4 小时前
OpenCode vs Claude Code vs OpenAI Codex:AI编程助手全面对比
人工智能·ai agent·mcp·peta
Bruk.Liu4 小时前
(LangChain 实战14):基于 ChatMessageHistory 自定义实现对话记忆功能
人工智能·python·langchain·agent
代码改善世界4 小时前
CANN中的AI算子开发:ops-nn仓库深度解读
人工智能
大江东去浪淘尽千古风流人物4 小时前
【VLN】VLN(Vision-and-Language Navigation视觉语言导航)算法本质,范式难点及解决方向(1)
人工智能·python·算法
云飞云共享云桌面4 小时前
高性能图形工作站的资源如何共享给10个SolidWorks研发设计用
linux·运维·服务器·前端·网络·数据库·人工智能
IT实战课堂小元酱4 小时前
大数据深度学习|计算机毕设项目|计算机毕设答辩|flask露天矿爆破效果分析系统开发及应用
人工智能·python·flask
MSTcheng.4 小时前
CANN ops-math:AI 硬件端高效数学运算的算子设计与工程化落地方法
人工智能·深度学习·cann
Dev7z4 小时前
基于深度学习的肺部听诊音疾病智能诊断方法研究
人工智能·深度学习
一灰灰blog4 小时前
Spring AI中的多轮对话艺术:让大模型主动提问获取明确需求
数据库·人工智能·spring
行者无疆_ty4 小时前
什么是Node.js,跟OpenCode/OpenClaw有什么关系?
人工智能·node.js·openclaw