1. 设计背景:为什么需要 Ling?
演讲首先探讨了在复杂的 AIGC(生成式人工智能)工作流中,JSON 数据格式的重要性及其面临的挑战。
-
复杂工作流的需求:现代 AI 应用(如 RAG 检索增强生成)通常包含复杂的链路。例如:意图识别 \\rightarrow 构造 Query \\rightarrow 并行搜索 \\rightarrow 结果整理 \\rightarrow 生成大纲 \\rightarrow 拟稿 \\rightarrow 润色 \\rightarrow 翻译 。
-
实时性痛点 :在这些环节中,如果等待上一步完全生成 JSON 后再进行下一步,延迟会非常高。为了实现"并行实时工作流",需要一种能够流式处理 JSON 数据的机制 。
-
JSON 的劣势:标准的 JSON 解析通常需要完整的字符串,难以适应 AI 大模型的流式(Token-by-Token)输出 。
2. Ling 的核心能力
Ling 框架的核心在于解决"流式实时解析 JSON"的问题。
-
流式 JSON 解析器 (JSONParser):
- 内部实现了一个状态机(LexerStates),包含
Begin,Object,Array,Key,Value等状态,能够逐个 Token 地解析数据 。
- 内部实现了一个状态机(LexerStates),包含
-
三大核心特性 :
-
输入 Token 实时解析:不需要等待完整响应,来一个 Token 解析一个。
-
流式输出 JSONURI:能够定位并输出 JSON 中正在生成的特定字段路径。
-
自动补全和错误修复:能够自动修复大模型输出的残缺或格式错误的 JSON。
-
-
SSE 支持 :框架原生支持 Server-Sent Events,能够定义多种事件生命周期(如
message,string-response,inference-done),实现从服务端到客户端的实时流式传输 。
3. 如何使用和扩展 Ling
演讲展示了如何通过代码构建 AI 工作流。
-
基础用法(串联工作流):
-
定义 Bot :通过
ling.createBot()创建 AI 代理,并设置 Prompt 要求其以 JSON 格式回复 7。 -
事件驱动的链式调用 :这是 Ling 的精髓。它不需要等待 Bot 1 彻底说完。一旦检测到 JSON 中某个特定字段(如
answer)的内容生成了(触发string-response事件),就可以立即将这部分内容发送给 Bot 2 进行下一步处理(如扩写),Bot 2 的输出又可以实时流向 Bot 3(如翻译) 8。 -
代码示例:
TypeScrip
bot.on('string-response', ({uri, delta}) => { // 当检测到特定字段有增量内容时,直接喂给下一个机器人 bot2.chat(delta); });
-
-
高级用法(扩展能力):
- 支持通过继承
Bot类来创建自定义能力的机器人,例如ImageBot(生图)、SearchBot(搜索)等,将它们集成到统一的流式工作流中 9。
- 支持通过继承
总结
Ling 框架是一个面向过程的、事件驱动的 AI 工作流框架 。它的核心价值在于打破了 JSON 必须完整解析的限制,使得 AI 的结构化输出可以像水流一样,在上游生成的同时被下游即时消费,极大地提升了复杂 AI 应用的响应速度和用户体验。