Coze工作流:打通AI应用的最后一公里

在这个AI狂飙突进的时代,智能技术的应用已经无处不在,但运用 AI 的门槛过高、学习曲线过陡,令很多人对此望而生畏。幸运的是,现在有了 Coze 这样的创新平台,它通过极具革命性的可视化编程方式,使人人都能像搭建乐高积木一样轻松便捷地开发 AI 应用,无需冗长的代码编写,直接在拖拽连接的节点中定制你的 AI 流程。本文将通过一个具体的工作流举例,一步步带您掌握 Coze 工作流的基础用法。

工作流与多代理模式

在Coze平台中,工作流(Workflow)和多代理模式(Multi-Agent)都采用了节点的形式来构建,因此初学者很容易将两者混淆。但事实上,它们在功能定位上是有区别的。

多代理模式更像是一个由多个"代理"组成的虚拟团队,每个代理分工合作以完成复杂的任务。就像一个写作团队,有专职的作家负责创作、美工负责配图、编辑负责审核一样,多代理模式下的每个节点代理了某个工种,通过有序的交接最终完成了写作的全过程。

而工作流则类似于一个独立的"模块",它被设计用于完成某个相对标准化、固定流程的任务。比如一个工作流可以实现根据关键词搜索新闻、总结新闻内容并输出的功能。工作流的设计初衷是将复杂流程可视化,方便排查优化。

因此,多代理模式和工作流模式并非对立,而是两种不同的任务处理方式。在实际应用中,我们可以根据任务的复杂程度来选择合适的模式,也可以将工作流作为多代理模式中的一个环节。总之,平台为我们提供了多种可能,只有熟练掌握才能发挥出它们的最大潜力。

创建工作流

从无到有的第一步

要创建一个工作流,首先需要进入Coze的个人主页,点击左上角"Personal"按钮即可进入。在个人主页中,点击最上方的"Workflow"链接,进入工作流管理页面。

在这个页面中,我们可以看到之前已创建的工作流,也可以点击右侧的"Create"按钮来新建一个工作流。创建时需要为工作流命名并添加描述,确认后即可完成创建。

创建成功后,我们就可以在工作流的可视化操作页面上自由地添加和连接各种节点,来定制我们需要的工作流程。这个页面的主体区域就是我们构建流程的工作台,默认提供了"Start"和"End"两个节点,我们可以先将它们连接起来,完成一个最简单的工作流。

除了工作台区域,我们还可以看到页面左侧列出了可供添加的各种节点类型,包括插件(Plugins)、大语言模型(LLMs)、代码(Code)、知识库(Knowledge Base)、条件判断(Condition)等。右侧则提供了缩放、拖动等操作,方便我们查看和调整工作流的整体布局。

通过合理连接和配置这些节点,我们就可以"模块化"地构建出强大的工作流程序,为各种应用场景提供个性化的解决方案。接下来,我们就来一步步地搭建一个实用的工作流示例。

工作流初体验

我们先从最基础的开始,将"Start"和"End"两个节点用一个最简单的变量连接起来。在"Start"节点下的Input区域,我们可以添加一个变量,将其命名为"input"。类型设为字符串,描述可暂时留空。然后在"End"节点的Output区域,选择"Reference"并引用这个"input"变量。

这样,我们就完成了一个最基础的参数传递流程。点击运行测试,在弹出的输入框中输入任意值(如"ybcarry"),即可在输出结果中看到刚才设置的"input"变量值。

搭建基础工作流

接下来,我们针对"文章解析"这个需求,开始通过插件节点来完善我们的工作流。从左侧添加"LinkReader"这个插件的"browse"节点,将"browse"连接在"Start"节点之后和"End"节点之前。

首先配置"Start"节点参数,添加 2 个 Input 变量,用于传入文章地址和相关问题。然后,配置"browse"节点参数,关键词"url"引用"Start"节点的"URL"变量。最后配置"End"节点输出,返回"browse"节点的内容。这样,我们就初步实现了提取文章的功能,为之后的进一步开发打下基础。

添加大语言模型回答提问

在获取到相关文章后,我们希望能对文章的相关问题得到解读和回答。为此,我们需要添加一个大语言模型(LLM)节点。

  1. 从左侧节点列表中选择"LLM",添加一个GPT-4大模型节点。将其放置在"browse"节点之后、"End"节点之前,并调整节点连接顺序。
  2. 在该LLM节点的Input区域,选择将"browse"节点获取到的"natural_language_desc"和"Start"节点传入的问题作为输入。
  3. 在Prompt区域,输入"请读取{{input1}}的内容,回答用户提出的下述问题:{{input2}}"。这里使用{{input1}}{{input2}}作为一个占位符,会调用上方Input设置的值。
  4. 在Output区域,添加一个名为"output"的新变量,用于存储LLM根据相关问题生成的回答。
  5. 回到End节点的Output设置,添加变量"out1"引用LLM的"output"。这样我们就得到LLM的回答内容。
  6. 点击测试运行,输入网站地址和相关问题,即可在输出结果中看到源描述和LLM基于其重写的总结内容了。

如,输入内容:

arduino 复制代码
URL:https://juejin.cn/post/7377664582729367571
Problem:文章中提到的关键技术是什么

得到答案:

复制代码
文章中提到的关键技术是大语言模型(LLM)的自回归解码机制,包括预填阶段和解码阶段。预填阶段采用提示序列,并为 LLM 的每个 Transformer 层生成 KV 缓存。解码阶段利用并更新 KV 缓存逐步生成 token,每个令牌的生成取决于先前生成的 token。

工作流的优化思路

通过上述案例,相信您已经初步了解了Coze平台中构建和应用工作流的基本方法。当然,实际场景中可能会遇到更多复杂的需求,这就需要我们在现有基础上持续优化:

  1. 善用可视化编程的优势,方便观察节点间的数据流转和处理过程,一旦发现问题能快速定位并改进。
  2. 合理使用Condition等节点类型,根据实际情况添加必要的条件判断分支,提高工作流的针对性和效率。
  3. 除了本文介绍的browse和LLM等节点,Coze平台上还有数十种可用节点如Code(代码)、Database(数据库)等,它们提供了非常丰富的功能支持。我们可以积极探索和组合各种节点,以构建更加复杂和强大的工作流。

Coze是一个魔术般的平台,将AI技术的强大与可视化编程的便利性充分结合。我们有足够多的乐高积木,组装出什么样的作品,就完全取决于你的创造力。希望本文能为你打开一扇窗,窥见这个神奇世界的一角。

结语

看到这里,你是否也被Coze平台的神奇所折服?Coze将AI应用开发最关键最核心的能力以可视化的方式呈现,无论是调用大模型、编写代码、连接数据库,还是进行条件判断、变量传递,统统可在可视化界面通过拖拽完成。这种编程方式的革新,将昔日高深的编程技能民主化,普及给每个人,让AI不再是技术精英的专利,任何人都可以挥洒创意定制独一无二的智能应用。这或许只是AI民主化的第一步,未来还有更多惊喜在等候我们,让我们怀揣对美好未来的向往,一起在Coze的世界里尽情探索和创造吧!

相关推荐
NAGNIP9 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab10 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab10 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP14 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年14 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼14 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS15 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
warm3snow15 小时前
Claude Code 黑客马拉松:5 个获奖项目,没有一个是"纯码农"做的
ai·大模型·llm·agent·skill·mcp
天翼云开发者社区16 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈16 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能