【AI面试临阵磨枪】详细解释 LLM、Token、Context、Prompt、Tool、MCP、Agent、Agent Skill 这些名词

一、 知识储备

1. LLM (Large Language Model) - 大语言模型

  • 本质: 基于 Transformer 架构,在海量文本上进行预训练的概率预测引擎
  • 面试深挖: 重点在于 "预测下一个 Token" 的本质。它并不真正"理解"含义,而是根据统计概率生成回复。目前的趋势是从单一文本模型向多模态 (Multimodal) 演进。

2. Token - 权标 / 令牌

  • 本质: 模型处理信息的最小单位
  • 详细机制: 文本进入模型前要经过 Tokenization。一个单词可能被切分为多个 Token(如 apple 是 1 个,但复杂的词可能是 2-3 个)。
  • 工程意义: 决定了成本 (按 Token 计费)和速度(推理延迟取决于生成的 Token 数)。

3. Context - 上下文

  • 本质: 模型在生成当前回答时能"看到"的所有信息。
  • 详细机制: 包括了历史对话、系统指令(System Prompt)和检索到的参考资料(RAG)。
  • 物理限制: 受限于 Context Window。超过限制会导致模型"失忆",工程上常用 KV Cache 技术来加速长上下文的推理。

4. Prompt - 提示词

  • 本质: 引导模型输出的指令输入
  • 详细机制: 它是模型的"编程语言"。分为 System Prompt (定义角色和规则)和 User Prompt(具体指令)。
  • 技巧点: 优秀的 Prompt 包含:角色 (Role)、背景 (Context)、任务 (Task) 和约束 (Constraint)。

5. Tool / Function Call - 工具 / 函数调用

  • 本质: 模型连接现实世界的接口

  • 详细机制: 模型本身不能上网或查数据库,但它可以通过输出特定格式(如 JSON)来"表达"它想用什么工具。开发者收到这个信号后,代为执行并将结果反馈给模型。

  • 代码示例:

    // 模型返回的 Tool Call 信号
    {
    "function": "get_weather",
    "parameters": { "location": "Beijing" }
    }

6. MCP (Model Context Protocol) - 模型上下文协议

  • 本质: 由 Anthropic 提出的标准化连接协议
  • 详细机制: 以前每个应用连接数据源(如 GitHub, Google Drive)都要写一套代码;MCP 让数据源和 AI 应用之间有了统一的插座。
  • 核心价值: 解决了 AI 工具生态的碎片化问题,让 Agent 可以无缝切换不同的数据源。

7. Agent - 智能体

  • 本质: 具备自主规划、记忆和工具使用能力的 AI 实体。
  • 详细机制: Agent = LLM + 规划 (Planning) + 记忆 (Memory) + 工具使用 (Tool Use)。它不再是简单的问答,而是为了完成一个复杂目标(如"帮我写一个网站并部署")而不断尝试的逻辑体。

8. Agent Skill - 智能体技能

  • 本质: Agent 经过封装的、高层级的原子化能力
  • 详细机制: 区别于基础的 Tool(如"读文件"),Skill 通常是多个 Tool 的逻辑组合。例如,"代码审计"是一个 Skill,它内部包含了读取、分析、对比、打分等多个步骤。
  • 工程视角: Skill 增强了 Agent 的复用性,让开发者可以通过组合 Skill 来快速构建复杂的 Agent。

二、 核心关联图谱

|-----------------|----------|-------------|
| 名词 | 角色定位 | 形象类比 |
| LLM | 大脑 / 引擎 | 引擎 |
| Token | 燃料 / 单位 | 汽油分子 |
| Context | 运行内存 | 挡风玻璃视野 |
| Prompt | 方向盘指令 | 驾驶指令 |
| Tool | 外部肢体 | 机械臂 / 传感器 |
| MCP | 标准化接口 | 统一的数据插槽 |
| Agent | 驾驶员 | 具备意识的司机 |
| Agent Skill | 驾驶技术 | 倒车入库 / 漂移技巧 |

三、 破局之道:以"系统架构师"的视角融合概念

在面试中,千万不要像查字典一样一个一个解释。要把它们串成一条线。

总结回答面试官的精辟逻辑:

"回答这些概念,核心要看它们是如何协作产生价值 的。你可以告诉面试官:LLM 是计算的核心,它消耗 TokenContext 的限制内运行。我们通过 Prompt 下达指令,让它成为一个 Agent 。这个 Agent 利用 MCP 协议提供的标准化能力,调用各种 Tool ,并不断磨炼自己的 Agent Skill 从而解决复杂问题。我不只是在背诵名词,我是在理解一个由这些组件构成的'数字生命体'的工程运行逻辑。"

相关推荐
2601_956743682 分钟前
上海大模型应用开发技术路径全解析:从架构选型到落地约束
人工智能·软件工程
云天AI实战派3 分钟前
AI智能体总是跑偏怎么办?ChatGPT/API 调用排查指南:从工具路由到语音闭环的全流程修复手册
人工智能·chatgpt·aigc
逐米时代12 分钟前
四川制造企业智改数转怎么申报?本地化AI项目落地一般分5步
大数据·人工智能
weixin_5536544814 分钟前
有没有一种可能,现在的大语言模型已经发展得接近极限了?
人工智能·语言模型·大模型
GISer_Jing14 分钟前
基于 GitHub Actions 端到端工程化落地——AI全栈项目实战案例
人工智能·github
图灵农场15 分钟前
SpringAI实用-RAG
人工智能
LienJack17 分钟前
AI 架构设计有点菜,我写了个 Skill 给它补课
人工智能·架构
人工智能AI技术22 分钟前
循环结构基础:for、while、递归性能对比
人工智能
盼小辉丶24 分钟前
PyTorch强化学习实战(5)——PyTorch Ignite 事件驱动机制与实践
人工智能·pytorch·python·强化学习