前端开发者如何拥抱 AI-Agent(科普)

目录

  • 前言
  • [一、调用 AI 的 LLM / Vision / Embedding 生成文本或 UI 组件](#一、调用 AI 的 LLM / Vision / Embedding 生成文本或 UI 组件)
    • [1、前端调用 LLM(生成文本)](#1、前端调用 LLM(生成文本))
    • [2、前端调用 Vision 模型(图像生成 / 分析)](#2、前端调用 Vision 模型(图像生成 / 分析))
    • [3、前端调用 Embedding(向量化 / 相似度搜索)](#3、前端调用 Embedding(向量化 / 相似度搜索))
    • [4、结合 LLM + Vision + Embedding 的前端 UI 示例](#4、结合 LLM + Vision + Embedding 的前端 UI 示例)
    • 5、技术选型建议(前端友好)
    • 6、安全与实用注意事项
  • [二、前端用 AI-Agent 开发项目](#二、前端用 AI-Agent 开发项目)
    • [0、 AI-Agent 体系结构](#0、 AI-Agent 体系结构)
    • [1、前端开发者该如何"拥抱 Agent 思维"](#1、前端开发者该如何“拥抱 Agent 思维”)
      • [(1)、从"写功能"转向"定义能力 + 让 AI 运行"](#(1)、从“写功能”转向“定义能力 + 让 AI 运行”)
      • [(2)、从"以 UI 为中心"转向"以任务为中心"](#(2)、从“以 UI 为中心”转向“以任务为中心”)
      • [(3)、从"用户输入 → 界面交互"变成 "用户意图 → AI action chain"](#(3)、从“用户输入 → 界面交互”变成 “用户意图 → AI action chain”)
    • [2、Vue / React 程序员最该学的 AI-Agent 技术栈(分三个层级)](#2、Vue / React 程序员最该学的 AI-Agent 技术栈(分三个层级))
      • [(1)、在前端项目里集成 AI(马上可以做)](#(1)、在前端项目里集成 AI(马上可以做))
      • [(2)、在后端实现代理(Agent Framework 实战)](#(2)、在后端实现代理(Agent Framework 实战))
        • [①、OpenAI Agent + Function Calling(最简单)](#①、OpenAI Agent + Function Calling(最简单))
        • [②、LangChainJS / LangGraph(项目大可以考虑)](#②、LangChainJS / LangGraph(项目大可以考虑))
        • [③、Vercel AI SDK(前端最友好)](#③、Vercel AI SDK(前端最友好))
      • [(3)、让你的前端 App "被 AI-Agent 控制"(下一代应用形态)](#(3)、让你的前端 App “被 AI-Agent 控制”(下一代应用形态))
        • [①、AI 自动操作你的前端 UI(RPA)](#①、AI 自动操作你的前端 UI(RPA))
        • [②、AI 直接生成 Vue / React 页面(可写可运行)](#②、AI 直接生成 Vue / React 页面(可写可运行))
        • [③、AI 调用你的前端组件作为"工具"](#③、AI 调用你的前端组件作为“工具”)
    • [3、前端 → Agent 的晋升级别路线图(做任务)](#3、前端 → Agent 的晋升级别路线图(做任务))
      • [(1)、AI 嵌入你的前端](#(1)、AI 嵌入你的前端)
      • [(2)、做一个你的第一个 Agent(Node + OpenAI)](#(2)、做一个你的第一个 Agent(Node + OpenAI))
      • [(3)、构建真实 AI 产品(多 Agent 协作)](#(3)、构建真实 AI 产品(多 Agent 协作))
  • [三、构建 AI-native 应用(生态层)](#三、构建 AI-native 应用(生态层))
  • 四、拓展
    • [1、AI-Agent 与 Agent 只是叫法不同吗?](#1、AI-Agent 与 Agent 只是叫法不同吗?)
      • [(1)、传统 Agent 是理论模型](#(1)、传统 Agent 是理论模型)
      • [(2)、AI-Agent 是 LLM 驱动的"新物种"(重点)](#(2)、AI-Agent 是 LLM 驱动的“新物种”(重点))
      • [(3)、AI-Agent 与 Agent 差异总结](#(3)、AI-Agent 与 Agent 差异总结)
      • [(4)、为什么现在大家都说 Agent,但其实指的是 AI-Agent?](#(4)、为什么现在大家都说 Agent,但其实指的是 AI-Agent?)
      • [(5)、你实际需要学的 AI-Agent 能力](#(5)、你实际需要学的 AI-Agent 能力)

前言

在人工智能领域,Agent 到底扮演着什么角色?

我们可以把这个世界抽象成 能力 → 执行 → 系统 → 生态 四层:

层级 核心能力 特点 举例
AI(模型层) 推理、语言理解、生成 只能"说",不会主动执行 ChatGPT、Claude
Agent(行动层) 调用工具、执行多步任务 会自动完成一个任务链 LangChain Agent、AutoGPT
Multi-Agent System / Orchestrator(协作层) 多 Agent 协作、任务分发、资源调度 像"公司调度中心",管理多 Agent,实现复杂目标 AutoGPT + Worker 集群、LangGraph
Autonomous System / AI-native 应用(生态层) 人类最小化干预,自动化业务系统 整个系统能自动运营、自动优化、自动进化 AI 驱动的自动化 SaaS、AI DevOps 平台、智能金融投研系统

用类比理解:

  • AI = 大脑
  • Agent = 雇员(会思考、能行动)
  • Multi-Agent System = 公司(协调多个雇员完成复杂项目)
  • Autonomous System = 企业生态(公司自己找业务、优化流程、持续迭代)

"人工智能+前端工程师" 的进阶路径:

  • AI:会调用 LLM / Vision / Embedding,生成文本或 UI 组件
  • Agent:能把 AI 生成的东西变成实际操作 → 自动执行任务
  • Multi-Agent / Orchestrator:管理多个 Agent,实现复杂任务闭环
  • Autonomous App / System:前端 + Agent + 后端 + 工具链一体,用户只看结果
  • 自动生成报表
  • 自动运营 SaaS
  • 自动化 DevOps / CI/CD
  • 自动生成前端页面 / 数据可视化

前端工程师不需要深入研究 Multi-Agent System 的理论或复杂的编排系统。

但需要理解"如何使用现有 Agent 框架"来构建 AI 增强型 UI / 工具 / 产品。

你要学的不是"造 Agent 系统",而是"调用并使用它们"。

学习重点应该是:

主题 是否需要掌握 解释
如何调用 LLM/Embedding/Images API ✅ 必须 前端必须掌握,最基础的能力
如何构建前端 + AI 的交互流程 ✅ 必须 例如智能表单、自动 UI 生成、自定义聊天
如何使用现成的 Agent 框架(OpenAI Swarm、LangGraph Lite、ReAct) ⭐ 推荐 了解即可,不需要深入实现,不需要懂过多理论
自己实现 Orchestrator / 核心调度系统 ❌ 不需要 这属于后端 + AI Infra 的工作
深入 Multi-Agent System 理论(博弈论、协作/竞争智能体模型) ❌ 完全不需要 这是学术方向,不是前端需要的

一、调用 AI 的 LLM / Vision / Embedding 生成文本或 UI 组件

1、前端调用 LLM(生成文本)

LLM = Large Language Model,例如 OpenAI GPT 系列、Claude、Mistral 等。

用途:

  • 文本生成(文章、报告、提示语)
  • 代码生成(Vue/React 组件)
  • JSON / schema 生成(表格列、表单 schema)
  • 自动补全

示例:React + OpenAI GPT-4

cpp 复制代码
// 安装依赖
// npm install openai

import { OpenAI } from "openai";

const client = new OpenAI({
  apiKey: process.env.OPENAI_API_KEY
});

async function generateText(prompt: string) {
  const response = await client.chat.completions.create({
    model: "gpt-4",
    messages: [{ role: "user", content: prompt }],
    temperature: 0.7
  });
  return response.choices[0].message?.content;
}

// 使用示例
const text = await generateText("帮我写一个 Vue 3 + Naive UI 的用户表格组件示例");
console.log(text);

Vue 使用:

cpp 复制代码
<template>
  <div>{{ generatedText }}</div>
</template>

<script setup lang="ts">
import { ref } from "vue";
import { OpenAI } from "openai";

const generatedText = ref("加载中...");
const client = new OpenAI({ apiKey: import.meta.env.VITE_OPENAI_KEY });

async function generateText() {
  const res = await client.chat.completions.create({
    model: "gpt-4",
    messages: [{ role: "user", content: "生成一个 Naive UI 用户表格组件" }]
  });
  generatedText.value = res.choices[0].message?.content || "生成失败";
}

generateText();
</script>

2、前端调用 Vision 模型(图像生成 / 分析)

Vision 模型 = DALL·E / MidJourney / OpenAI 图片生成 / HuggingFace 视觉模型

用途:

  • 生成 UI mockup
  • 生成图标 / 插图
  • 识别图像内容
  • OCR 或图像标注

示例:生成图像

cpp 复制代码
const response = await client.images.generate({
  model: "gpt-image-1",
  prompt: "生成一个现代风格的仪表盘 UI mockup",
  size: "1024x1024"
});
const imageUrl = response.data[0].url;

展示在前端:

cpp 复制代码
<template>
  <img :src="imageUrl" alt="AI 生成 UI" />
</template>

<script setup lang="ts">
import { ref } from "vue";
import { OpenAI } from "openai";

const imageUrl = ref("");
const client = new OpenAI({ apiKey: import.meta.env.VITE_OPENAI_KEY });

async function generateImage() {
  const res = await client.images.generate({
    model: "gpt-image-1",
    prompt: "生成一个现代风格的仪表盘 UI mockup",
    size: "1024x1024"
  });
  imageUrl.value = res.data[0].url;
}

generateImage();
</script>

3、前端调用 Embedding(向量化 / 相似度搜索)

Embedding = 将文本、图像、代码转成向量,方便相似度搜索或检索增强。

用途:

  • 文档检索(RAG, Retrieval-Augmented Generation)
  • 代码片段搜索
  • 个性化推荐
  • 内容聚类

示例:文本嵌入

cpp 复制代码
const embeddingRes = await client.embeddings.create({
  model: "text-embedding-3-small",
  input: "生成 Vue 3 用户表格组件的示例"
});
const vector = embeddingRes.data[0].embedding; // 数值向量

实战:

  • 将 vector 存入向量数据库(Pinecone / Weaviate / Milvus)
  • 用户输入 query → embedding → 相似度匹配 → 获取对应代码或文档
  • 可用在前端:比如在 IDE 或后台管理系统里做智能搜索

4、结合 LLM + Vision + Embedding 的前端 UI 示例

假设我们要实现一个 "AI 自动生成可运行 Vue/React 组件"的系统":

  • 用户输入 prompt(文本) → LLM 生成组件代码
  • 用户上传图像 mockup → Vision 识别颜色/布局 → 生成对应组件样式
  • Embedding 用于组件库检索 → 找到最相似的组件模板
  • 最终生成一个可直接在项目中运行的 Vue/React 组件

数据流示意:

5、技术选型建议(前端友好)

模型类型 API / SDK 适合前端场景
LLM OpenAI Chat Completions / Replit / Claude 文本生成、代码生成、表单/表格 schema
Vision OpenAI Image API / Stability AI / Replicate UI mockup、图标、图片生成、分析
Embedding OpenAI Embeddings / Cohere / HuggingFace 文档检索、组件检索、相似度搜索

6、安全与实用注意事项

  • API Key 不要直接暴露在前端
    • 前端调用可以通过你自己的 Node/Next.js / Vite Server 中转
  • 流式输出更好体验
    • LLM chatCompletion + streaming → 实时显示生成文本
  • 生成组件要可验证
    • 可以在沙箱中运行(如 vue-sfc-rollup 或 react-live)
  • Vision 模型要控制尺寸
    • 避免前端直接加载大图生成

二、前端用 AI-Agent 开发项目

现代语境里: "Agent"几乎默认为"AI-Agent(基于 LLM 的智能体)"。但严格讲,两者是不同概念。

⭐ 你需要理解的"AI-Agent 思维模型"。

把 AI-Agent 想象成:

  • 可以被调用的函数,但这个函数是 AI 驱动的,并且能自己完成任务。

前端开发者要学的就是:

  • 如何向 Agent 发指令(prompt 设计)
  • 如何让前端 UI 与 Agent 交互(消息流)
  • 如何解析 Agent 生成的 JSON / UI 配置
  • 如何在前端执行 Agent 的工具调用(Tool Calling)

你 不需要 实现 Agent 的协作控制机制,比如:

  • 多 agent 并发协调
  • DAG graph 调度
  • memory replay
  • semantic routing

这些都有现成框架帮你做。

0、 AI-Agent 体系结构

cpp 复制代码
┌──────────────────────────────────────────────┐
│                🧠 LLM / Foundation Model      │
│    (GPT-5, Claude, Gemini, Llama, Qwen...)    │
└──────────────────────────────────────────────┘
                     ▲
                     │自然语言推理 / 规划 / 思考
                     ▼
┌──────────────────────────────────────────────┐
│               🤖 AI-Agent Core               │
│  - 思考(Reasoning)                            │
│  - 规划(Planning)                              │
│  - 记忆(Memory)                                │
│  - 决策(Action Selection)                       │
│  - 工具选择(Tool Routing)                       │
└──────────────────────────────────────────────┘
                     ▲
                     │调用工具 / 获取上下文
                     ▼
┌──────────────────────────────────────────────┐
│                 🔧 Tools / Actions            │
│   (由前端、后端、第三方提供的能力模块)         │
│  - fetchAPI()                                  │
│  - queryDB()                                   │
│  - readFile()                                  │
│  - writeFile()                                 │
│  - generateUI(schema)                          │
│  - callModel(embedding/vision)                 │
│  - browserOps(click, fillForm, navigate)       │
└──────────────────────────────────────────────┘
                     ▲
                     │返回工具执行结果
                     ▼
┌──────────────────────────────────────────────┐
│          🧩 Orchestrator / Agent Runtime       │
│(LangGraph, OpenAI Swarm, ReAct, Dify, LobeChat)│
│  - 状态机(State)                                │
│  - 步骤控制(Steps)                               │
│  - 多Agent协作(Multi-Agent)                     │
│  - 循环/条件执行(Loops/If)                      │
│  - 事件/订阅(Event Stream)                      │
└──────────────────────────────────────────────┘
                     ▲
                     │交互协议(JSON / Streaming)
                     ▼
┌──────────────────────────────────────────────┐
│            🎨 Frontend (Vue / React)           │
│  - 注册前端工具:JS 函数变为 Agent 的 Action     │
│  - 渲染 AI 生成的 UI(Schema → Component)      │
│  - 显示 Agent 状态(执行中 / 规划中 / 等待工具) │
│  - 多 Agent 的可视化 Workflow                  │
│  - 与 Orchestrator 进行双向流通信               │
└──────────────────────────────────────────────┘
                     ▲
                     │用户意图(自然语言)
                     ▼
┌──────────────────────────────────────────────┐
│                    🧑‍💻 User                   │
└──────────────────────────────────────────────┘

1、前端开发者该如何"拥抱 Agent 思维"

Agent 并不是一个框架,而是一套 自动化 + 调度 + 工具调用 的新范式。

你需要掌握的核心思维转变如下三点。

(1)、从"写功能"转向"定义能力 + 让 AI 运行"

传统前端:

  • 你写组件、写接口、写逻辑。

Agent开发:

  • 你告诉 AI --- 它能访问哪些工具(API)、能操作哪些组件、能执行哪些动作。
  • AI 负责自己决策、自己调用。

像:

  • 搜索 API
  • 数据库 CRUD
  • 文件生成器
  • UI 操作(RPA)

(2)、从"以 UI 为中心"转向"以任务为中心"

传统前端是界面驱动:

  • 人类控制流程

Agent 应用是任务驱动:

  • AI 控制流程、人类偶尔给反馈

(3)、从"用户输入 → 界面交互"变成 "用户意图 → AI action chain"

例如用户说:

  • "帮我做个上海天气趋势图放到报告里"

在 agent 中会自动转化为:

  • 调用天气 API
  • 调用图表生成工具
  • 调用文档生成器(ppt/pdf/docx)
  • 输出文件

你只定义 工具 ,AI 负责 调用顺序

2、Vue / React 程序员最该学的 AI-Agent 技术栈(分三个层级)

(1)、在前端项目里集成 AI(马上可以做)

①、React / Vue 直接接 OpenAI Realtime API

如果你用 Naive UI、Element Plus、AntD、Tailwind 做项目

你可以快速加入:

  • 流式对话输入框
  • AI 自动补全
  • AI 自动生成表格
  • AI 自动生成表单 schema(Naive UI + zod + AI 很配)

示例:

AI 自动生成 NDataTable 的 columns & row schema

(完全契合你现在的技术栈)

②、在前端自动化你的工作流(你会爱上这个)

例如:

  • 自动生成 TypeScript 类型(OpenAI JSON schema)
  • 自动根据接口文档生成封装好的 API hooks
  • 自动生成 React/Vue 页面原型(比 Figma to Code 更好用)
  • 自动生成 Naive UI 表格提取配置
  • 自动为 React/Pinia/RTK/Query 生成状态逻辑骨架

不需要构建 Agent,但你会开始"AI 工具化"。

(2)、在后端实现代理(Agent Framework 实战)

你需要一个后端来挂"工具"。

最推荐的两个框架:

  • OpenAI Agent + Function Calling(最简单)
  • LangChainJS / LangGraph(项目大可以考虑)
  • Vercel AI SDK(前端最友好)
①、OpenAI Agent + Function Calling(最简单)

适合:

  • React + Node
  • Vue + NestJS

你将 API 封装为 tools,例如:

cpp 复制代码
{
  name: "getUserOrders",
  description: "获取用户订单",
  parameters: { type: "object", properties: { userId: { type: "string" } } },
  execute: async ({ userId }) => {
     return fetch(`/api/orders/${userId}`).then(r => r.json())
  }
}

然后 Prompt 里告诉 AI:

如果用户问"我的订单?"

就自动调用 getUserOrders

从此 AI 会自动帮你调用你的后端。

非常适合前后端一体的团队。

②、LangChainJS / LangGraph(项目大可以考虑)

适合:

  • 多工具调用
  • 工作流图(Graph State)
  • 多 Agent 协作
  • 工具链长达 10+ 步

你可以做:

  • 爬虫 Agent
  • 富流程表单 Agent(审批流)
  • 文档生成 Agent
  • 自动化数据分析 Agent
③、Vercel AI SDK(前端最友好)

前后端同构,非常适合 React + Next.js。

你可以做:

  • AI 流式聊天
  • 多工具 Agent
  • Vision Agent(图像内容生成 UI)
  • Realtime Agent(语音实时交互)
  • 未来 Agent 应用的主流方式。

(3)、让你的前端 App "被 AI-Agent 控制"(下一代应用形态)

这是未来方向,也最能体现前端优势。

示例场景:

①、AI 自动操作你的前端 UI(RPA)

你定义:

  • 页面按钮
  • 组件 id
  • 表单 action

Agent 会自动:

  • 点击
  • 输入
  • 切换 tab
  • 提交表单
  • 读取列表

你只写 UI → AI 操作 UI → 用户走任务流

这是未来 Agent-native UI。

②、AI 直接生成 Vue / React 页面(可写可运行)

你定义:

  • 你项目的组件集(如 Naive UI / AntD / shadcn)
  • Routing structure
  • Tailwind preset

AI 就可以生成:

  • 完整页面
  • 状态管理
  • Action handler
  • API 调用
  • 表格/表单

你只需要 review & commit。

③、AI 调用你的前端组件作为"工具"

例如你的 NTable / Charts / FormBuilder 本身就可以作为工具:

  • AI 自动帮你渲染数据表格
  • AI 自动帮你生成图表
  • AI 自动帮你创建 JSON schema form

这是未来"可自描述 UI 指令语言"(DSL)的雏形。

3、前端 → Agent 的晋升级别路线图(做任务)

(1)、AI 嵌入你的前端

  • 会用 Streaming(流式输出)
  • 会用 Vision API 帮你生成 UI
  • 会用 JSON schema 生成类型
  • 会用工具自动生成 React/Vue 代码

完成时间:1--3 天

(2)、做一个你的第一个 Agent(Node + OpenAI)

实现:

  • tools 注册
  • tool 调用链
  • memory 机制(上下文)
  • 守护逻辑(如校验参数)
  • action chain(多步执行)

完成时间:3--7 天

(3)、构建真实 AI 产品(多 Agent 协作)

你可以做:

  • 自动报告生成 Agent(财报、KPI、风控)
  • 自动 UI 生成 Agent(低代码)
  • 自动化运维 Agent(DevOps)
  • 自动可视化 Dashboard Agent
  • 自动表格清洗 Agent

完成时间:7--30 天

三、构建 AI-native 应用(生态层)

AI-native 应用是什么?

不是把 AI"加到应用里",而是把"应用构建在 AI 之上"。

重点:

  • 让 UI 成为可被 AI 控制的"工具"
  • 让 AI 主动使用页面组件
  • 让人类只提供反馈,而不是点击 UI

典型特征:

  • UI 只是"外壳",核心逻辑由 AI 决定
  • 应用不是 CRUD,而是自主行动
  • 从"页面逻辑"变成"任务 + 目标 + 工具调用"
  • AI 拥有记忆(memory)、状态(state)、策略(policy)

前端需要理解这种新模式,因为 UI 将变得更像:

  • 可视化 AI 工作流
  • 智能表单
  • 智能仪表盘
  • 动态生成的 UI
  • AI 作为编排器(Agent Orchestrator)

这是下一代前端范式。

四、拓展

1、AI-Agent 与 Agent 只是叫法不同吗?

不是只是叫法不同。

AI-Agent 和 Agent 含义相关,但语义范围不同、应用场景不同,也代表两种时代的产物。

所有 AI-Agent 都是 Agent,但不是所有 Agent 都是 AI-Agent。

概念 如何理解 核心差异
Agent(传统 Agent) 一种抽象概念:能自主执行任务的实体(可以是软件、机器人、规则系统) 概念更大,历史更久,不一定包含 AI
AI-Agent(现代 AI 代理) 基于 LLM 的智能体,具备理解语言、工具调用、自主规划能力 专指 LLM 驱动的 Agent,是新时代产物

(1)、传统 Agent 是理论模型

比如:

  • 游戏 NPC AI(基于规则)
  • 决策系统(Rule-based)
  • 感知-思考-行动(PEAS)
  • 机器人导航模型

这些都叫 Agent,但没有 LLM。

它们更像写死的逻辑,不是真 AI。

(2)、AI-Agent 是 LLM 驱动的"新物种"(重点)

从 2023--2024 开始才真正兴起。

特点:

  • 能理解自然语言

用户一句话:"帮我生成一个 Vue3 上传组件",它能完全理解。

①、能自主规划

能把任务拆分并执行多步:

  • 分析要求
  • 规划结构
  • 生成组件
  • 检查错误
  • 修改代码
②、能调用工具(Tool Calling)

前端能为 AI 注册工具:

cpp 复制代码
{
  name: "fetchAPI",
  description: "从后端获取数据",
  function: async (args) => { ... }
}

AI 会主动调用。

③、能执行循环动作(Autonomous)

比如自动:

  • 搜集数据
  • 监控状态
  • 自动刷新 UI
  • 完成多轮任务

(3)、AI-Agent 与 Agent 差异总结

特征 传统 Agent AI-Agent
是否使用 LLM ❌ 否 ✅ 是
是否能理解自然语言 ❌ 不行 ✅ 可以
决策机制 规则/算法 LLM + 记忆 + 工具调用
自主能力 中等 很强
适用场景 游戏、机器人、自动化系统 AI 应用、AI-native 产品、自动工作流
前端是否需要学习 几乎无需求 必须,未来前端核心技能

(4)、为什么现在大家都说 Agent,但其实指的是 AI-Agent?

因为 2023 年 LLM 爆发后,"Agent"这个词被整个行业重塑。

今天:

  • OpenAI 的 Agent = AI-Agent
  • Anthropic 的 Agent = AI-Agent
  • LangChain/LangGraph 的 Agent = AI-Agent
  • Dify/LobeChat 的 Agent = AI-Agent
  • ProductHunt 上说 Agent = AI 应用

所以现代语境里: "Agent"几乎默认为"AI-Agent(基于 LLM 的智能体)"。但严格讲,两者是不同概念。

作为前端开发者,你要关注的是 AI-Agent(现代智能体),而不是传统 Agent。

因为:

  • AI-Agent 才跟 LLM、API、UI、工具调用相关
  • AI-Agent 才会用到 Vue / React
  • AI-Agent 才是未来应用架构的核心
  • AI-Agent 才是你需要学的技能
  • AI-native 应用一定基于 AI-Agent,而不是传统 Agent

(5)、你实际需要学的 AI-Agent 能力

cpp 复制代码
Level 1 ------ 让前端会用 AI(LLM 基础)
Level 2 ------ 让前端调用 AI(Tool Calling / Schema)
Level 3 ------ 让前端与 Agent 协作(Agent Runtime)
Level 4 ------ 让前端构建 AI-native UI(动态 UI / 工作流)
Level 5 ------ 构建完整的 AI-Agent 应用(自主 + 协作)
相关推荐
晨非辰3 小时前
【数据结构初阶系列】归并排序全透视:从算法原理全分析到源码实战应用
运维·c语言·数据结构·c++·人工智能·python·深度学习
菠菠萝宝4 小时前
【Java手搓RAGFlow】-3- 用户认证与权限管理
java·开发语言·人工智能·llm·openai·qwen·rag
youngfengying5 小时前
《轻量化 Transformers:开启计算机视觉新篇》
人工智能·计算机视觉
搞科研的小刘选手7 小时前
【同济大学主办】第十一届能源资源与环境工程研究进展国际学术会议(ICAESEE 2025)
大数据·人工智能·能源·材质·材料工程·地理信息
MARS_AI_7 小时前
云蝠智能 VoiceAgent 2.0:全栈语音交互能力升级
人工智能·自然语言处理·交互·信息与通信·agi
top_designer7 小时前
Substance 3D Stager:电商“虚拟摄影”工作流
人工智能·3d·设计模式·prompt·技术美术·教育电商·游戏美术
雷神大青椒7 小时前
离别的十字路口: 是否还记得曾经追求的梦想
人工智能·程序人生·职场和发展·玩游戏
m0_650108248 小时前
多模态大模型 VS. 图像视频生成模型浅析
人工智能·技术边界与协同·mllm与生成模型·技术浅谈
ai_xiaogui8 小时前
Mac苹果版Krita AI一键安装教程:AIStarter+ComfyUI零基础部署全流程(X86/ARM双架构)
arm开发·人工智能·macos·comfyui·一键部署·ai绘画教程·kritaai