从指令到智能:大型语言模型提示词工程与上下文工程的综合分析

一、提示词工程:指令的艺术与科学

在与生成式人工智能模型(尤其是大型语言模型,LLM)交互的领域中,提示词工程(Prompt Engineering)构成了最直接、最基础的控制层面。它既是一门精确的科学,也是一门需要创造力的艺术,其核心在于设计和优化输入指令,以引导模型产生期望的输出。

1.1 定义提示词工程:塑造模型的任务

从根本上说,提示词工程是设计、构建和优化指令(即"提示词")的过程,旨在引导生成式人工智能模型产出更优质的输出。它被广泛认为是"艺术与科学的结合",因为它不仅需要对语言有深刻的理解,还需要创造性思维以及通过反复试验进行迭代优化的工程方法。

  • 提示词本质:一种自然语言文本,用于描述人工智能模型应执行的任务。形式多样,可是简单问题、关键词,也可是包含背景信息、示例和复杂指令的文本。
  • 模型响应机制:模型并非通过独立"问答"模块回答问题,其输出是基于庞大训练数据,对"跟随输入提示词后最可能出现的词语序列"的预测。
  • 核心目标:通过提供清晰的"路线图",充分释放模型内在能力,在用户意图与模型生成过程间架起桥梁,确保输出相关、准确,且符合特定格式、风格和语气要求。

1.2 提示词技术分类法

随着实践深入,提示词工程发展出一套行之有效的技术体系,可按复杂性和应用场景分类:

(1)零样本与少样本学习

两种最基本的提示范式,核心区别在于是否为模型提供任务示例:

  • 零样本提示(Zero-Shot Prompting) :直接下达指令,不提供任何示例,完全依赖模型预训练阶段的知识和指令遵循能力。是大多数任务的首选起点。
    示例:"将以下文本分类为中性、负面或正面。文本:我觉得这次度假还行。"
  • 少样本提示(Few-Shot Prompting) :零样本效果不佳时,在提示词中包含1个及以上"输入-输出对"示例,通过"在上下文中学习"引导模型理解任务要求(非永久性训练)。对复杂或模型未明确训练的任务至关重要。
    示例:进行主题分类时,先提供"标题:《人工智能医疗应用进展》 主题:科技-医疗"等配对示例,再让模型分类新标题。
(2)指令控制与格式化

为获得精确可控的输出,需精心设计提示词的结构和内容:

  • 清晰性与特异性:模糊提示(如"谈谈人工智能")易导致无效输出,有效提示需具体明确(如"解释人工智能在医疗保健领域的影响")。最佳实践:核心指令置于开头,用分隔符(### 或 """)区分指令与上下文信息,避免混淆。
  • 角色扮演(Persona Prompting) :为模型分配特定角色或身份,引导回应的语气、风格和知识范围。在构建特定领域对话机器人或内容生成器时效果显著。
    示例:"假设你是一位数据科学家,正在向一群高中生解释人工智能的好处"。
  • 结构化输出 :需将模型输出用于后续程序处理时,明确指定格式(如"以JSON格式返回结果")或提供格式示例,确保输出结构统一、便于解析。
    示例:要求以要点列表形式总结文本。
(3)增强推理能力

最初提示词多用于知识检索和文本生成,后经研究发现,特定提示词结构可显著提升模型在复杂推理任务上的表现:

  • 思维链提示(Chain-of-Thought, CoT):突破性技术,引导模型将复杂问题分解为中间逻辑步骤,模仿人类推理过程,大幅提升算术、常识、符号推理等任务性能。实践中,只需在提示词末尾添加"让我们一步一步地思考"即可激发模型逐步推理能力。
  • 高级推理模式 :在CoT基础上发展的复杂推理策略:
    • 思维树(Tree-of-Thought):引导模型探索多个推理路径,选择最优解;
    • 自洽性(Self-Consistency):生成多个独立推理链,通过"少数服从多数"确定最终答案,提高结果鲁棒性。

提示词技术的认知转变

从简单零样本查询到复杂思维链推理,提示词技术的发展反映了对LLM认知的深刻转变:

  1. 初期:将LLM视为先进模式匹配器或知识检索数据库,交互为"提出问题-获得答案"的事务性模式;
  2. 少样本学习阶段:将LLM视为"可在上下文中快速学习的学生";
  3. 思维链技术阶段(里程碑):揭示"模型生成答案的过程与答案本身同等重要"------通过提示词引导模型"外化"推理步骤,不仅请求结果,更主动引导其内部计算路径。这表明LLM"黑箱"并非完全不透明,可通过结构化提示词提供推理"脚手架",影响其内部"深思熟虑"过程。

二、基本原理:语言模型如何"思考"

要理解提示词工程与上下文工程的有效性,需探究其技术基石------大型语言模型的核心架构(Transformer),明确输入文本结构如何影响模型计算过程和最终输出。

2.1 Transformer架构:现代LLM的引擎

2017年论文《Attention Is All You Need》引入Transformer架构,彻底改变自然语言处理(NLP)领域。它摒弃循环神经网络(RNN)和长短期记忆网络(LSTM)的顺序处理模式,采用并行处理机制,使海量数据高效训练成为可能,大幅提升模型处理文本长距离依赖关系的能力,为现代LLM奠定基础。

Transformer架构的核心组件包括:

  • 编码器-解码器结构:许多现代生成模型(如GPT系列)采用"仅解码器(decoder-only)"结构,但完整Transformer包含编码器和解码器两部分;
  • 词嵌入层(Embedding Layers):将输入文本分割为"词元(token)",并将每个词元转换为高维度数字向量(词嵌入);
  • 位置编码(Positional Encodings):Transformer并行处理机制本身不包含序列信息,需向词嵌入中添加位置编码,告知模型每个词元在序列中的位置。

2.2 自注意力机制:"理解"的源泉

自注意力机制(Self-Attention Mechanism)是Transformer架构的灵魂,也是模型"理解"上下文的根本。它允许模型处理序列中每个词元时,权衡所有其他词元对它的重要性(如在"那只动物没有过马路,因为它太累了"中,判断"它"指代"动物"而非"马路")。

该机制通过查询-键-值(Query-Key-Value, QKV)模型实现:

  1. 投影:输入序列中每个词元的词嵌入向量,通过线性投影(乘以三个可学习权重矩阵)生成查询向量(Q)、键向量(K)、值向量(V);
  2. 打分:计算某词元(如token i)的Q_i与所有词元的K_j的点积,得到"注意力分数",衡量词元间相关性;
  3. 加权求和:对注意力分数进行缩放和归一化(通常用Softmax函数),得到权重;用权重对所有词元的V_j加权求和,得到融合全局上下文信息的词元新表示。

为捕捉文本复杂关系,Transformer引入多头注意力(Multi-Head Attention)机制:将Q、K、V向量分割为多个"头(head)",每个头独立执行注意力计算(每个头可学习关注不同语言特征,如句法结构、语义关联);最后拼接所有头的输出,再次线性变换,形成包含多维度上下文信息的综合表示。

2.3 上下文窗口:LLM的工作记忆

上下文窗口(Context Window)是LLM单次处理中可容纳和关注的最大信息量,通常以词元(token)数量衡量,相当于模型的"工作记忆"或"注意力广度"。

  • 词元化(Tokenization):文本处理前,由"分词器(tokenizer)"分解为词元(模型处理语言的基本单位)。词元不等同于单词,可为字符、词根/词缀、完整单词或短语。理解词元化对估算上下文窗口容量和API使用成本至关重要。
  • 影响与限制
    1. 上下文窗口大小直接决定模型在单次对话中"记住"的信息量,或一次性分析的文档长度;超出窗口时,模型会"忘记"早期信息,导致对话连贯性下降或分析不完整;
    2. 更大窗口虽提升复杂任务处理能力,但伴随挑战:
      • 计算成本增加:处理更长序列需更多计算资源,导致响应变慢、推理成本上升;
      • "大海捞针"问题:长上下文中,模型难定位关键信息,性能随上下文长度增加而下降(对开头和结尾信息利用率最高,中间信息易被忽略)。

工程实践与模型架构的因果联系

Transformer模型处理的不是文本,而是上下文窗口内的一系列数字向量(词嵌入)。自注意力机制通过计算注意力分数矩阵,决定每个词元对其他词元的"关注"程度:

  • 结构清晰、逻辑明确的提示词(如开头明确指令、用分隔符区分内容),从数学上让注意力机制更易为关键部分分配高权重;
  • 少样本示例通过提供具体模式,"预热"或引导模型注意力分布,使其为新查询复制该模式;
  • 上下文窗口的有限性是"上下文工程"学科诞生的根本原因------若窗口无限,可提供所有相关信息;正因其有限,需战略性选择和组织上下文内容。

三、向上下文工程的演进:构建信息生态系统

随着业界从简单聊天机器人、内容生成工具转向复杂、可靠、可扩展的AI系统,单纯提示词工程显现局限性。为满足生产级应用需求,"上下文工程(Context Engineering)"应运而生,标志着从"优化单个指令"到"设计整个信息环境"的范式转变。

3.1 定义上下文工程:超越单个提示词

上下文工程是一门系统性设计、构建和管理"模型推理期间提供给LLM的完整信息负载"的学科。核心是构建动态系统,在恰当时间、以正确格式,为模型提供完成任务所需的全部信息,确保其行为可靠、一致。

  • 关注点转变:从"提示词考古学"(花费数小时微调单个查询措辞),转向设计"运行时动态组装上下文的工程管线";
  • 思维方式转变:重点从"你问了什么"转向"当你提问时,模型知道什么";
  • 核心目标:为模型提供关于任务的"完整、精心烹制的世界观",而非"不完整、半生不熟的视角",打造可控、可靠的生产级系统。

3.2 关键关系:提示词工程是上下文工程的组成部分

提示词工程与上下文工程并非竞争关系,而是"包含关系"------提示词工程是上下文工程的子集。

类比理解
  • 提示词工程:精心撰写一封措辞精准的信件;
  • 上下文工程:管理整个家庭的运作(日程安排、信息流、背景资料),确保信件在恰当时机,连同所有必要背景信息,送达正确对象。
具体分工
  • 上下文工程:决定"什么内容应填入上下文窗口";
  • 提示词工程:在已构建的信息环境中,撰写"指令部分"。

关键提醒设计再精妙的提示词,若淹没在无关聊天记录或格式混乱的文档片段中,也无法发挥作用。有效的上下文工程通过提供结构化记忆、动态检索知识和工具调用结果,为提示词执行创造必要条件,使其指令切实可行、高度相关。

表3.1:提示词工程与上下文工程的比较分析

特征(Feature) 提示词工程 (Prompt Engineering) 上下文工程 (Context Engineering)
范畴 (Scope) 关注即时指令或查询(通常为单轮交互) 关注跨多轮交互和会话的完整信息环境
目标 (Goal) 针对单个输入,引导模型产生特定、高质量的响应 确保整个人工智能系统表现出一致、可靠且可扩展的性能
类比 (Analogy) 撰写一封清晰、精准的信件 设计和管理一个家庭的整体通信与信息流
核心活动 (Core Activity) 措辞优化、指令结构设计、提供示例 系统设计、数据检索、记忆管理、工具集成
关键产物 (Key Artifact) 提示词字符串或模板 动态组装的、包含多源信息的完整上下文窗口负载
关联技术 (Associated Tech) 少样本学习、思维链提示 检索增强生成(RAG)、向量数据库、智能体框架(如LangGraph)、API编排

四、上下文工程实践:核心组件与操作

上下文工程将与模型的交互从"一次性对话"提升为"系统性架构设计",涉及多个协同组件,共同为模型构建动态、丰富的信息环境。

4.1 系统性指令设计(系统提示)

系统提示(System Prompt)是上下文工程的基石,为模型在整个会话或任务期间设定总体角色、行为准则、约束条件和目标。与针对单次请求的用户提示不同,系统提示具有持久性,构成指令层次结构的基础层。

  • 示例:客户服务机器人的系统提示------"你是一家名为'ACME公司'的客户服务助理。你的语气应始终保持礼貌和共情。在回答问题时,必须优先使用提供的文档上下文,禁止透露个人身份信息(PII)"。
  • 最佳实践
    1. 语言清晰、直接,处于"恰当高度"(足够具体以引导行为,同时保持灵活性以适应不同情况,避免过度拟合硬编码逻辑);
    2. 用XML标签或Markdown标题组织系统提示的不同部分(如、),提升可读性和有效性。

4.2 动态知识集成:检索增强生成(RAG)

检索增强生成(RAG)是上下文工程的基础模式,旨在解决LLM"知识库静态(仅限训练数据截止日期前的信息)"的核心局限。通过将LLM与外部动态知识源(公司内部文档、数据库、实时API)连接,为模型提供最新、领域特定的信息,是当前减少模型"幻觉"(生成事实错误信息)、确保回答有据可依的主要手段。

典型RAG管线步骤
  1. 索引(Indexing):将外部知识源(PDF、网页)分割为较小文本块(chunks);用嵌入模型(embedding model)将每个文本块转换为高维向量,存储在向量数据库中;
  2. 检索(Retrieval):用户提出查询后,系统将查询转换为向量;在向量数据库中进行相似性搜索,找出与查询向量最接近的文本块(即最相关信息);
  3. 增强(Augmentation):将检索到的文本块与用户原始查询、系统提示等信息拼接,构成增强的信息丰富上下文;
  4. 生成(Generation):将完整上下文负载提交给LLM,模型基于内部知识和外部实时上下文,生成更准确、有事实依据的回答。

4.3 状态与记忆管理

对于多轮对话应用(如聊天机器人、AI助手),记忆管理是维持对话连贯性和实现个性化的关键,分为短期记忆和长期记忆:

  • 短期记忆:通过每次请求时,将最近对话历史包含在上下文窗口中实现,使模型"记住"直接上下文,确保回应连贯;
  • 长期记忆:为实现跨会话个性化,将关键信息(用户偏好、过去交互摘要、重要事实)存储在外部数据库(通常为向量数据库)中;新会话开始或检测到相关触发点时,从长期记忆库检索信息,注入当前上下文。

4.4 工具集成与智能体行为

上下文工程使LLM超越单纯文本生成,进化为可与外部世界交互的"智能体(Agent)",核心是在上下文中为模型提供"工具"(即模型可调用的函数或API,如查询数据库、发送邮件、执行代码)。

工具集成工作流程
  1. 工具定义:在系统提示或上下文其他部分,清晰描述可用工具、功能及调用所需参数格式;
  2. 决策与调用:模型基于用户请求和当前上下文,自主决策是否调用工具、调用哪个工具;若调用,生成符合预定义格式的函数调用指令(如JSON对象);
  3. 执行与反馈:外部系统接收指令,执行工具(如调用天气API),并将执行结果(如"今天北京天气晴,25摄氏度")返回;
  4. 整合与响应:将返回结果重新注入模型上下文窗口,成为模型生成最终答复的新信息来源。

应用示例:用户请求"查一下我上次的订单,里面的蓝色衬衫能退货吗?"------系统先通过记忆组件检索订单历史,再通过RAG组件查询退货政策文档,同时注入"处理退货"API工具定义;模型基于完整上下文,生成准确且可执行的回答,完成从"静态文本生成器"到"有状态、有知识、有行动能力的智能体"的转变。

4.5 高级上下文管理策略

有限的上下文窗口易成为瓶颈,导致"上下文腐烂(context rot)",业界发展出多种高级管理策略:

  • 摘要/压缩(Summarization/Compaction):对话历史过长时,调用LLM对早期内容总结,用短摘要替代冗长原文,节省词元空间;
  • 结构化笔记(Structured Note-Taking):让智能体在执行任务过程中,将关键信息、中间结论或待办事项记录到上下文窗口之外的"草稿纸"或外部文件中;需要时,再将这些笔记检索回上下文中,避免关键信息占用实时窗口资源。
  • 多智能体架构(Multi-Agent Architectures):将复杂任务分解为多个子任务,为每个子任务分配专门的"子智能体";每个子智能体在独立、干净的上下文中专注解决自身问题;最后由"主智能体"协调和综合所有子智能体的产出,形成最终解决方案,有效规避单一窗口的信息过载问题。

五、实际应用:上下文感知系统的概念性演练

为融会贯通前述概念,本节以"设计具备上下文感知能力的客户服务聊天机器人"为例,进行架构演练,清晰展示提示词工程如何在RAG、记忆、工具构成的动态上下文生态系统中发挥作用。

5.1 系统目标:一个多功能客户服务智能体

该系统需构建能处理多样化客户请求的AI智能体,核心能力要求:

  1. 回答关于公司产品和政策的事实性问题;
  2. 访问并处理用户相关动态数据(如订单历史);
  3. 执行具体操作(如发起退货流程);
  4. 交互过程中保持一致、友好的品牌形象和个性。

实现目标的关键:无缝融合静态知识(政策文档)、动态数据(用户信息)和有状态的交互能力。

5.2 构建上下文管线

典型的请求-响应周期涉及"动态、多阶段的上下文构建过程",具体分为4个步骤:

步骤1:基础系统提示的构建(提示词工程)

系统起点是通过精心设计的系统提示,为智能体设定核心身份和行为准则。该提示为静态内容,每次交互开始时加载,需遵循结构化设计原则:

复制代码
你是由ACME公司开发的AI客户服务助理"SupportBot"。  

### 核心准则
1. 语气必须始终保持礼貌、耐心和共情;
2. 回答公司政策相关问题时,严格依据提供的[文档上下文]作答,禁止依赖通用知识库;
3. 若[文档上下文]无足够信息,需明确告知用户"我没有找到相关信息";
4. 绝对禁止询问用户密码、信用卡号等敏感个人身份信息(PII)。

### 可用工具
你拥有以下工具帮助用户解决问题:
1. get_order_history(user_id):根据用户ID查询其最近的订单历史;
2. initiate_return(order_id, item_id):根据订单ID和商品ID为用户发起退货流程。
步骤2:运行时的上下文动态组装(上下文工程)

用户发起请求后,系统实时、动态构建针对该请求的专属上下文,包含4个关键动作:

  1. 用户身份识别:通过登录状态或其他方式获取用户唯一标识(user_id);
  2. 记忆检索:调用内部函数get_user_profile(user_id),从长期记忆库(如CRM数据库、用户画像系统)中检索用户关键信息(如是否为VIP客户、最近购买记录、历史客服工单摘要),添加到上下文中;
  3. RAG知识检索:分析用户查询(如"我想退掉上次买的相机"),提取关键词"退货""相机";向存储公司政策、产品手册的向量数据库发起查询,返回最相关文本块(如"电子产品退货政策""相机产品保修条款"),作为[文档上下文]注入;
  4. 短期记忆注入:将当前会话中最近的几轮对话(如最近5轮)加入上下文,维持对话连贯性。
步骤3:最终上下文负载的形成

整合上述所有组件,生成提交给LLM的完整上下文负载,概念性结构如下:

复制代码
[系统提示]
你是由ACME公司开发的AI客户服务助理"SupportBot"。  
### 核心准则
1. 语气必须始终保持礼貌、耐心和共情;
2. 回答公司政策相关问题时,严格依据提供的[文档上下文]作答,禁止依赖通用知识库;
3. 若[文档上下文]无足够信息,需明确告知用户"我没有找到相关信息";
4. 绝对禁止询问用户密码、信用卡号等敏感个人身份信息(PII)。
### 可用工具
1. get_order_history(user_id):根据用户ID查询其最近的订单历史;
2. initiate_return(order_id, item_id):根据订单ID和商品ID为用户发起退货流程。

[用户画像 (来自记忆库)]
用户ID: user_123
客户等级: VIP
历史问题: 曾咨询过相机镜头兼容性问题

[对话历史 (短期记忆)]
用户: 你好
SupportBot: 您好!我是ACME公司的AI客服SupportBot,很高兴为您服务。
用户: 我想退掉上次买的相机

[文档上下文 (来自RAG检索)]
文档1 (电子产品退货政策): "所有电子产品自购买之日起30天内可无理由退货,需包装完好,附购买凭证。"
文档2 (相机保修条款): "相机机身提供一年保修,不包括人为损坏、包装缺失的情况;退货需确保机身无划痕、配件齐全。"

[当前用户请求]
用户: 我想退掉上次买的相机
步骤4:生成响应与工具使用

LLM基于上述信息丰富的上下文,进行精准推理和生成:

  1. 初步响应:综合用户画像(VIP身份)、RAG政策(30天无理由退货)、历史记录(曾咨询相机问题),生成个性化回答------"您好!查询到您是我们的VIP客户,非常感谢您的支持。根据公司政策,相机作为电子产品,自购买之日起30天内可无理由退货(需包装完好、配件齐全)。我查询到您最近的订单中包含一台'ACME-X1'相机,请问您想退的是这台设备吗?";
  2. 工具调用触发 :若用户确认"是这台相机",模型将依据系统提示中的工具定义,生成调用initiate_return工具的指令(如JSON格式:{"function":"initiate_return","parameters":{"order_id":"ORD-78901","item_id":"CAM-X1-001"}});
  3. 闭环执行:外部系统接收工具指令后,执行退货流程初始化,将结果(如"退货申请已提交,退货单号为RTN-12345,预计1-3个工作日审核")反馈至上下文,模型再将该结果转化为自然语言答复用户,完成"信息收集-决策-行动-反馈"的智能体循环。

5.3 迭代与评估

构建上下文感知系统是持续迭代的过程,需通过"监控-评估-优化"闭环提升性能:

  1. 轨迹监控(Trace Monitoring):记录每次交互的完整上下文、模型中间思考步骤(如是否调用工具、检索是否准确)和最终响应,便于出现问题时(如政策引用错误、工具调用失败)定位根源;
  2. 系统性评估:建立包含真实用户问题的测试集(覆盖产品咨询、订单查询、售后操作等场景),从"准确性(政策引用是否正确)、相关性(回答是否匹配用户需求)、任务完成率(是否成功解决问题)"三个维度量化系统表现;
  3. 定向优化:根据评估结果调整关键组件------若RAG检索不准确,优化文本块分割策略或嵌入模型;若对话连贯性差,调整短期记忆的保留长度;若工具调用逻辑混乱,细化系统提示中的工具参数描述。

六、结论:从技巧到工程

对提示词工程和上下文工程的分析,揭示了人机交互范式的深刻演进------从依赖个人技巧、反复试错的"黑客式方法",转向有理论基础、系统方法论、评估标准的"正式工程学科"。

核心论点总结

维度 提示词工程(Prompt Engineering) 上下文工程(Context Engineering)
定位 战术层面的技能 战略层面的学科
核心关注 优化"指令本身",确保单次交互的高质量输出 架构化设计"模型的信息环境",确保系统持续、可靠、可扩展运行
核心问题 "如何更好地提问?" "如何让模型在提问时,知道所有它应该知道的事情?"
价值定位 帮助获取"第一个好的输出" 帮助构建"一个可靠的AI系统"

未来发展趋势

从提示词工程到上下文工程的演进,是构建"更自主、更有能力的AI智能体"的关键一步。未来焦点将进一步转向"高级工作流架构(Advanced Workflow Architecture)":

  1. 自动化上下文组装:AI将自主规划解决复杂任务所需的信息(如"用户问'最近的促销活动',需先检索最新活动文档,再查询用户所在地区是否参与"),减少人工干预;
  2. 多智能体协同优化:不同功能的子智能体(如"检索智能体""推理智能体""工具执行智能体")将实现更高效的协同,动态分配任务、共享上下文,提升复杂任务(如跨部门流程协调)的处理能力;
  3. 工程化标准完善:随着实践深入,上下文工程将形成更明确的设计模式(如"记忆分层管理模式""RAG-工具协同模式")、评估指标(如"上下文利用率""幻觉率")和开发框架,推动该领域从"手艺(Craft)"彻底走向"正式工程学科",为下一代智能应用(如企业级AI助手、行业专属智能体)奠定坚实基础。
相关推荐
Fuly10243 小时前
prompt构建技巧
人工智能·prompt
XXX-X-XXJ3 小时前
二:RAG 的 “语义密码”:向量、嵌入模型与 Milvus 向量数据库实操
人工智能·git·后端·python·django·milvus
艾醒(AiXing-w)3 小时前
探索大语言模型(LLM):大模型微调方式全解析
人工智能·语言模型·自然语言处理
科兴第一吴彦祖3 小时前
基于Spring Boot + Vue 3的乡村振兴综合服务平台
java·vue.js·人工智能·spring boot·推荐算法
姚瑞南3 小时前
【AI 风向标】四种深度学习算法(CNN、RNN、GAN、RL)的通俗解释
人工智能·深度学习·算法
渡我白衣4 小时前
深度学习入门(一)——从神经元到损失函数,一步步理解前向传播(上)
人工智能·深度学习·学习
补三补四4 小时前
SMOTE 算法详解:解决不平衡数据问题的有效工具
人工智能·算法
为java加瓦4 小时前
前端学AI:如何写好提示词(prompt)
前端·人工智能·prompt
一车小面包4 小时前
对注意力机制的直观理解
人工智能·深度学习·机器学习