一 概念讲解
| 概念 | 核心定位 | 关键特征 | 类比(以公司为例) | 技术层级 |
|---|---|---|---|---|
| LLM | 大脑(核心引擎) | 知识压缩、推理、生成 | 拥有广博知识的实习生 | 基础设施层 |
| Prompt | 沟通界面(指令) | 意图表达、上下文设定 | 给实习生写的任务清单 | 交互层 |
| Skills | 固化能力(API) | 确定性、工具化、可复用 | 实习生学会使用的办公软件 | 能力层 |
| Agent | 执行主体(数字员工) | 自主规划、决策、执行 | 能自己安排工作的项目经理 | 应用/执行层 |
| AGI | 终极目标(类人智能) | 通用性、自适应、意识 | 全能且可自主学习的超级员工 | 愿景层 |
1.1 LLM(大语言模型):AI系统的"大脑"
- 本质 :参数量在百亿级以上的预训练语言模型 ,核心能力是下一个token预测
- 功能定位 :提供基础的语言理解与生成能力,但仅限于文本层面,无法主动执行任务
- 典型代表:GPT-4o、Claude 3.5、Llama 4、Qwen 2.5等
- 关键局限 :
- 知识截止到训练日期(存在"幻觉"风险)
- 无法主动调用外部工具
- 上下文窗口有限(即使200k-1M也可能遗忘)
🧠 形象比喻:LLM就像一位知识渊博但行动受限的学者,能回答各种问题,但无法亲自去图书馆查资料或操作实验设备。
1.2. Prompt(提示词):与LLM交互的"指令手册"
- 本质 :给LLM的输入文本,是"指令+上下文+示例+约束"的组合
- 功能定位 :引导LLM生成特定风格和内容的输出,决定LLM输出质量的80%(模型参数只占20%)
- 关键特点 :
- 临时性:单次对话有效,"说完即焚"(除非放入长期记忆)
- 即时性:依赖当前上下文窗口
- 灵活性:可快速测试和调整
📝 典型示例:"你是一位资深Python工程师,请审查以下代码,指出问题并给出重构建议,输出格式用Markdown。"
💡 重要提示 :Prompt不是简单的"咒语",而是结构化指令工程,包括零样本、少样本、思维链、角色扮演等多种技术。
1.3. Agent(智能体):具备自主能力的"执行者"
- 本质 :能自主规划、调用工具、记忆、迭代完成复杂目标的LLM驱动系统
- 功能定位 :将LLM的"大脑"与"手脚"结合,从"回答问题"升级为"完成任务"
- 核心组件 :
- Planner:任务分解与路径规划
- Executor:调用工具执行操作
- Memory:短期(对话历史)+ 长期(向量数据库)记忆
- Observer:反思错误与调整策略
🤖 形象比喻 :如果LLM是大脑,Agent就是拥有大脑、手脚和记忆的完整生物体,能主动感知环境、制定计划并执行任务。
✅ 关键区别 :LLM只能被动回答问题,而Agent能主动拆解任务、调用工具、迭代优化,实现"用户给目标,Agent给结果"的工作模式。
1.4. Skills(技能):领域专长的"方法论资产"
- 本质 :可移植的、模块化的领域专长包,让Agent从"通用"变成"专家"
- 功能定位 :封装特定任务的领域知识、执行步骤、判断标准、输出格式,使Agent在处理专业任务时有章可循
- 核心特点 :
- 持久化:配置一次后可反复调用,解决Prompt"临时性"问题
- 标准化:提供统一的执行规范和输出格式
- 工程化:独立文件管理,支持版本控制和测试验证
🛠️ 典型示例:代码审查Skill包含:
- 审查维度(安全漏洞、逻辑正确性等)
- 风险评级(P0阻塞、P1重要等)
- 输出格式规范
- 边界规则(只审查变更部分)
⚠️ 关键区别 :Prompt是"一次性指令",而Skill是可复用、标准化的方法论资产,就像公司SOP手册,确保不同任务结果的一致性和专业性。
1.5. AGI(强人工智能):理论中的"通用智能体"
- 本质 :具备与人类相当或超越人类水平的通用认知能力的人工智能系统
- 功能定位 :实现对"智能"本质的复现,成为可独立应对复杂、开放、动态世界问题的通用智能体
- 核心特征 :
- 跨领域学习:将知识迁移到全新领域
- 自主目标生成:主动设定子目标并制定长期策略
- 元认知能力:监控自身认知过程,识别知识盲区
- 多模态融合:整合视觉、语言、触觉等多源信息
🌌 关键区别 :当前所有AI应用(包括LLM、Agent、Skills)都属于弱人工智能(ANI) 范畴,而AGI仍是理论探索阶段,尚未有系统被公认为真正实现通用智能。
⚠️ 行业现状:OpenAI CEO奥尔特曼曾表示,"AGI这一术语正逐渐失去其意义",因为概念界定变得越来越困难,不同公司对AGI的定义差异很大。
1.6层级关系图解

- LLM 提供基础推理能力,但需要Prompt引导输出方向
- Agent整合LLM、Skills和MCP,实现从"理解需求"到"执行任务"的闭环
- Skills解决"怎么做才专业"的问题,提供领域知识和流程规范
- MCP解决"用什么工具"的问题,提供标准化的工具接入方式
- 三者缺一不可:少了Agent,LLM、Skills、MCP就是孤立的"零件";少了Skills,Agent缺乏专业能力;少了MCP,Agent无法连接外部世界
以"生成销售周报"为例:
- 用户输入:"帮我生成2月销售周报"
- Agent决策:识别任务类型,决定调用"周报生成Skill"
- Skill加载:系统自动加载Skill内部封装的专用Prompt、规则和工具定义
- MCP执行:通过MCP协议连接数据源,获取销售数据
- LLM处理:基于Skill提供的增强版Prompt进行数据处理和分析
- 结果输出:生成结构化周报,通过MCP发送到指定渠道
1.7 行业最新趋势与实践建议
技术演进方向
- 从"Prompt工程"到"Skill工程" :行业正从临时性Prompt转向可管理、可复用的Skill资产
- MCP标准化 :OpenAI推出的MCP协议正成为行业统一的"工具接入标准",解决Agent生态碎片化问题
- Agent架构分层 :现代AI应用架构正形成清晰分层------工作流协调Agent,Agent调用Skills,Skills通过MCP连接外部系统
实践建议
- 对开发者 :不要只关注Prompt技巧,应系统化构建Skill库,将业务知识沉淀为可复用的AI能力
- 对产品经理 :理解Agent不是单一工具,而是工作模式,需设计支持目标导向的交互流程
- 对业务方 :不要追求"AGI"概念,应聚焦解决实际问题的"弱AI应用",当前所有商业化AI都属于ANI范畴
1.8 一句话总结区别
- LLM:提供基础语言能力的"大脑"
- Prompt:引导LLM输出的"指令"
- Agent:整合资源完成任务的"执行者"
- Skills:领域专长的"方法论资产"
- AGI:理论中的"通用智能"(当前尚未实现)
当前AI技术发展的核心逻辑是:通过Skills和MCP扩展LLM的能力边界,使Agent能够从"纸上谈兵"走向"动手做事",最终构建出真正能解决实际问题的AI应用体系。理解这些概念的本质区别与协同关系,是把握AI技术发展趋势和构建有效AI应用的关键基础。