【AI面试临阵磨枪】详细解释 LLM、Token、Context、Prompt、Tool、MCP、Agent、Agent Skill 这些名词

一、 知识储备

1. LLM (Large Language Model) - 大语言模型

  • 本质: 基于 Transformer 架构,在海量文本上进行预训练的概率预测引擎
  • 面试深挖: 重点在于 "预测下一个 Token" 的本质。它并不真正"理解"含义,而是根据统计概率生成回复。目前的趋势是从单一文本模型向多模态 (Multimodal) 演进。

2. Token - 权标 / 令牌

  • 本质: 模型处理信息的最小单位
  • 详细机制: 文本进入模型前要经过 Tokenization。一个单词可能被切分为多个 Token(如 apple 是 1 个,但复杂的词可能是 2-3 个)。
  • 工程意义: 决定了成本 (按 Token 计费)和速度(推理延迟取决于生成的 Token 数)。

3. Context - 上下文

  • 本质: 模型在生成当前回答时能"看到"的所有信息。
  • 详细机制: 包括了历史对话、系统指令(System Prompt)和检索到的参考资料(RAG)。
  • 物理限制: 受限于 Context Window。超过限制会导致模型"失忆",工程上常用 KV Cache 技术来加速长上下文的推理。

4. Prompt - 提示词

  • 本质: 引导模型输出的指令输入
  • 详细机制: 它是模型的"编程语言"。分为 System Prompt (定义角色和规则)和 User Prompt(具体指令)。
  • 技巧点: 优秀的 Prompt 包含:角色 (Role)、背景 (Context)、任务 (Task) 和约束 (Constraint)。

5. Tool / Function Call - 工具 / 函数调用

  • 本质: 模型连接现实世界的接口

  • 详细机制: 模型本身不能上网或查数据库,但它可以通过输出特定格式(如 JSON)来"表达"它想用什么工具。开发者收到这个信号后,代为执行并将结果反馈给模型。

  • 代码示例:

    // 模型返回的 Tool Call 信号
    {
    "function": "get_weather",
    "parameters": { "location": "Beijing" }
    }

6. MCP (Model Context Protocol) - 模型上下文协议

  • 本质: 由 Anthropic 提出的标准化连接协议
  • 详细机制: 以前每个应用连接数据源(如 GitHub, Google Drive)都要写一套代码;MCP 让数据源和 AI 应用之间有了统一的插座。
  • 核心价值: 解决了 AI 工具生态的碎片化问题,让 Agent 可以无缝切换不同的数据源。

7. Agent - 智能体

  • 本质: 具备自主规划、记忆和工具使用能力的 AI 实体。
  • 详细机制: Agent = LLM + 规划 (Planning) + 记忆 (Memory) + 工具使用 (Tool Use)。它不再是简单的问答,而是为了完成一个复杂目标(如"帮我写一个网站并部署")而不断尝试的逻辑体。

8. Agent Skill - 智能体技能

  • 本质: Agent 经过封装的、高层级的原子化能力
  • 详细机制: 区别于基础的 Tool(如"读文件"),Skill 通常是多个 Tool 的逻辑组合。例如,"代码审计"是一个 Skill,它内部包含了读取、分析、对比、打分等多个步骤。
  • 工程视角: Skill 增强了 Agent 的复用性,让开发者可以通过组合 Skill 来快速构建复杂的 Agent。

二、 核心关联图谱

|-----------------|----------|-------------|
| 名词 | 角色定位 | 形象类比 |
| LLM | 大脑 / 引擎 | 引擎 |
| Token | 燃料 / 单位 | 汽油分子 |
| Context | 运行内存 | 挡风玻璃视野 |
| Prompt | 方向盘指令 | 驾驶指令 |
| Tool | 外部肢体 | 机械臂 / 传感器 |
| MCP | 标准化接口 | 统一的数据插槽 |
| Agent | 驾驶员 | 具备意识的司机 |
| Agent Skill | 驾驶技术 | 倒车入库 / 漂移技巧 |

三、 破局之道:以"系统架构师"的视角融合概念

在面试中,千万不要像查字典一样一个一个解释。要把它们串成一条线。

总结回答面试官的精辟逻辑:

"回答这些概念,核心要看它们是如何协作产生价值 的。你可以告诉面试官:LLM 是计算的核心,它消耗 TokenContext 的限制内运行。我们通过 Prompt 下达指令,让它成为一个 Agent 。这个 Agent 利用 MCP 协议提供的标准化能力,调用各种 Tool ,并不断磨炼自己的 Agent Skill 从而解决复杂问题。我不只是在背诵名词,我是在理解一个由这些组件构成的'数字生命体'的工程运行逻辑。"

相关推荐
weitingfu2 小时前
从 BERT 到 GPT 再到 Mamba:LLM 架构的“三国演义“
人工智能·gpt·大模型·bert·mamba·上下文·实战指南
GEO索引未来2 小时前
为什么做GEO需要一套好的数据系统?
大数据·人工智能·ai·chatgpt·googlecloud
JoyCong19982 小时前
统信桌面操作系统V25焕新登场,久尺智能ToDesk+AI布局激发信创活力
人工智能
咚咚王者2 小时前
人工智能之知识蒸馏 第三章 知识类型分类与蒸馏对象选择策略
人工智能·分类·数据挖掘
dfsj660112 小时前
第三章:神经网络的史前史
人工智能·深度学习·神经网络
AI周红伟2 小时前
《智能体应用交付实操:OpenClaw+Skills+RAG+Agent智能体应用案例实操和智能体交付的方案设计》
大数据·数据库·人工智能·科技·gpt·深度学习·openclaw
名字不好奇2 小时前
Claude Code 是如何“记住“一切的?
人工智能
数智工坊2 小时前
深度拆解AnomalyAny:异常检测新工作,利用Stable Diffusion生成真实多样异常样本!
人工智能·pytorch·python·stable diffusion
RInk7oBjo2 小时前
大模型应用:批量文档摘要与分类实践:本地合同、报告数据处理与导出
大数据·数据库·人工智能