聊聊上下文工程👷

一、引言:聊一聊提示词工程

(一)什么是提示工程

Prompting是人与大语言模型(LLM)交互的核心接口,通过精心设计输入内容,引导模型生成符合预期的输出结果。提示工程作为一门专门的工程学科,核心内涵包括:结构化设计请求、提供精准上下文、指定输出格式规范、定义响应类型标准等关键动作。

优质的提示词语能最大化激活模型能力,输出准确、相关性强且具备创造性的结果;反之,设计不当的提示词可能会导致模型输出模糊、偏离主题甚至出现错误的内容。在智能体系统开发中,提示工程更是连接通用LLM与专用业务场景的桥梁,直接决定智能体的规划能力、工具使用效率、记忆管理效果与协作可靠性。

(二)提示工程的核心目标

提示工程的终极目标是持续获取高质量的模型响应,这需要开发者同时具备两项核心能力:

  1. 深刻理解目标模型的能力边界(如上下文窗口大小、推理极限、多模态支持程度);
  2. 精准传达业务意图的表达能力。

本文将系统覆盖从基础交互到复杂智能体开发的全流程提示技术,为不同层级的应用开发提供可落地的解决方案。

二、提示词工程的五大原则

好的提示设计不是完全依赖主观经验,而是建立在一套通用核心原则之上。这些原则适用于各类LLM与不同复杂度的任务,是大模型稳定产出优质输出的基础。

(一)清晰具体:消除歧义,精准定义任务

LLM的核心工作机制是模式识别,模糊的指令会导致模型误判任务方向。设计提示时需明确三个核心要素:任务目标输出格式约束条件,避免使用模糊表述或让模型进行主观假设。

反例:分析一下这个产品数据 - (未明确分析维度、输出形式、数据范围);

正例:分析2025年第三季度某品牌手机的销售数据,从区域分布、价格段占比两个维度生成分析结论,输出格式为'1. 区域分布:XXX;2. 价格段占比:XXX',数据范围见附件表格摘要。

(二)简洁精炼:去冗余,聚焦核心信息

在保证任务描述完整的前提下,提示词应该尽量简明扼要。多余的修饰语、复杂的句式结构会干扰模型对核心指令的识别。建议用直接的表达和动作,例如:分析(Analyze)、分类(Classify)、对比(Compare)、生成(Generate)、提取(Extract)、总结(Summarize)、翻译(Translate)等。

优化示例

请你思考一下对下面这段文本进行总结这件事(原提示)


总结以下文本:[文本内容] (优化)

(三)精准动词:激活模型对应处理逻辑

动词的选择直接决定模型对任务类型的判断。精准的动词能快速激活模型中对应的训练数据与处理流程,提升响应效率与准确性。

场景示例

  • 信息提取任务:使用提取而非找出,如:从以下合同文本中提取甲方名称、签约日期、违约责任条款;
  • 创意生成任务:使用创作而非写一下,如: 为xx品牌创作3条适合社交媒体传播的广告语,风格活泼年轻化。

(四)正面指令:明确做什么而非不做什么

正面指令比负面约束更符合人类的指导习惯,也更容易被LLM理解。过度强调不要做什么会让模型聚焦于规避错误,而非达成核心目标;建议只有在安全规范或格式硬性要求时使用约束性表述。

反例:写一篇产品介绍,不要太官方、不要太长、不要遗漏核心功能;

正例:写一篇300字以内的产品介绍,风格口语化,包含核心功能:快速充电、超长续航、防水防尘。

(五)实验迭代:动态优化提示方案

提示工程不存在万能模板,最优提示往往需要通过多次迭代获得。

标准迭代流程为:起草初始提示 → 测试模型响应 → 分析输出问题(如遗漏信息、格式错误、逻辑偏差) → 优化提示细节 → 再次测试。

建议记录每次的提示版本、模型参数与输出结果,形成迭代日志,帮助判断最优方案。

三、基础提示词技术

基础提示技术通过提供不同数量的示例引导模型响应,适用于从简单问答到结构化数据处理的广泛场景。

(一)零样本提示:基础任务的快速适配

零样本提示是最简洁的提示方式,仅包含任务描述与输入数据,不提供任何示例,完全依赖模型的预训练知识完成任务。

适用场景:模型训练数据中高频出现的基础任务,如简单翻译、文本补全、基础问答、关键词提取等。

示例

任务:将中文句子翻译成英文;

提示:将以下中文句子翻译成英文:'人工智能技术正在重塑各行各业的发展模式。';

预期输出:"Artificial intelligence technology is reshaping the development model of various industries."

(二)单样本提示:特殊格式/风格的快速对齐

当期望输出的格式或风格较为特殊时,单样本提示通过提供1组"输入-输出"示例,帮助模型快速理解任务模式,提升响应准确性。

适用场景

定制化格式输出(如特定模板的报告摘要)、特殊风格文本生成(如古风文案、技术文档注释)、小众领域的简单任务。

示例

任务:按照指定格式提炼新闻核心信息;

提示:请按照'标题:XXX;时间:XXX;核心事件:XXX'的格式提炼新闻核心信息。

示例:新闻:2025年10月1日,全国多地举行国庆升旗仪式,庆祝新中国成立76周年; 提炼结果:标题:全国多地举行国庆升旗仪式;时间:2025年10月1日;核心事件:庆祝新中国成立76周年。 请处理以下新闻:2025年11月5日,第五届中国国际进口博览会在上海开幕,共有来自128个国家和地区的企业参展。

预期输出:标题:第五届进博会在上海开幕;时间:2025年11月5日;核心事件:128个国家和地区的企业参展。

(三)少样本提示:提示复杂任务的泛化能力

少样本提示通过提供3-5组高质量"输入-输出"示例,清晰展示任务的模式规律,帮助模型提升对新输入的泛化能力,是处理复杂任务的基础技术。

核心要点

  1. 示例质量:示例需准确无误、具备代表性,覆盖任务的常见变体与边界情况(如分类任务需包含所有类别);
  2. 示例多样性:避免示例同质化,助力模型理解任务的整体规律而非单一案例;
  3. 顺序优化:分类任务中建议混合不同类别示例的顺序,避免模型过拟合特定序列。

示例(情感分类任务)

提示:"请将电影评论情感分类为正面(POSITIVE)、中性(NEUTRAL)、负面(NEGATIVE)。

示例: 评论1:'这部电影的剧情紧凑,演员演技在线,看完很过瘾';情感:POSITIVE 评论2:'电影画面不错,但剧情逻辑有些混乱,整体中规中矩';情感:NEUTRAL 评论3:'买票看完后悔了,剧情拖沓,角色塑造扁平,不推荐';情感:NEGATIVE

请判断以下评论的情感:'这部科幻片的特效很震撼,但人物情感线太单薄,勉强能看。'";

预期输出:情感:NEUTRAL

四、结构化与上下文工程

通过结构化设计与动态上下文管理,可以提升模型对复杂任务的理解能力与响应可控性,是构建情境感知型智能体的关键基础。

(一)结构化提示:清晰划分信息层级

结构化提示通过明确分隔指令、上下文、示例、输入数据等不同部分,帮助模型准确识别各段文本的角色,减少信息混淆。常用分隔方式包括:三重反引号(```)、XML标签、特殊标记(如【指令】、【示例】、【输入】)等。

示例(文档摘要任务)

提示:

【指令】总结以下文档的核心观点,要求简洁明了,不超过200字;

【文档】2025年中国人工智能产业发展报告指出,当前我国AI产业呈现三大发展趋势:一是核心技术突破加速,大模型轻量化、低功耗化趋势明显;二是行业应用深度渗透,制造、医疗、教育等领域的AI落地场景不断丰富;三是政策监管体系日趋完善,数据安全与算法公平成为行业发展的核心底线。报告预测,2026年我国AI产业规模将突破1.2万亿元,年增长率保持在25%以上。

【输出要求】分点列出核心观点,每点不超过50字。

预期输出:"1. 2025年中国AI产业呈三大趋势:核心技术突破、行业应用渗透、政策监管完善;2. 预测2026年产业规模超1.2万亿元,年增25%以上。"

(二)系统提示与角色提示:定义模型行为基准

  1. 系统提示:用于设定模型的整体行为准则与交互目的,为所有后续对话提供基础指导,常见于智能体的初始化配置。

    • 示例:"你是一名专业的财务顾问AI,所有回复需遵循以下准则:1. 语言正式严谨,基于财务专业知识;2. 仅针对企业财务管理相关问题提供解答;3. 不提供任何投资建议;4. 若问题超出专业范围,直接告知用户无法解答。"
  2. 角色提示:为模型分配特定身份,要求其使用用该身份的知识体系、语气风格与思考方式响应,提升输出的专业性与相关性。

    • 示例:"请扮演一名资深的初中数学教师,用通俗易懂的语言解释'一元二次方程的求根公式',并结合1个简单例题说明应用方法。"

(三)上下文工程:构建动态环境认知

上下文工程区别于静态的系统提示,核心是动态整合任务所需的背景信息,帮助模型理解细节、回忆历史交互、整合外部数据,提升响应的连贯性与针对性。

上下文工程的核心层次包括:

makefile 复制代码
基础层:系统提示定义的操作参数(如: 专业技术写手,语气正式精准); 
外部数据层:检索文档(如技术规格书、行业报告)、工具输出(如API调用获取的实时数据); 
隐式数据层:用户身份、交互历史、环境状态(如当前时间、用户所在地区)。

示例(旅游推荐)

提示:

【系统提示】你是一名专业的旅游规划师;

【上下文信息】用户是带2名5岁儿童的家庭,计划2025年12月去三亚旅游,预算5000元/人,偏好亲子互动场景;

【历史交互】用户此前询问过三亚的天气情况,已告知12月三亚气温18-25℃,适合户外活动;

【当前任务】推荐3个适合该家庭的三亚亲子景点,并说明推荐理由。

预期输出:1. 三亚亚特兰蒂斯水世界:拥有儿童专属游乐区域,安全系数高,可体验亲子水上项目,适合5岁儿童;2. 三亚水稻国家公园:可体验农耕亲子活动,了解农作物知识,户外空间开阔,适合家庭休闲;3. 三亚海底世界:能近距离观察海洋生物,有儿童专属科普讲解,兼具娱乐性与教育性。

(四)结构化输出:提升响应的可处理性

在非创意类任务中,明确要求模型生成JSONXMLMarkdown表格等结构化格式,可显著提升输出的可复用性,便于后续数据处理与系统集成。结合Pydantic等数据校验工具,还能实现输出数据的自动校验与类型转换。

示例(用户信息提取+Pydantic校验)

  1. 提示:从以下文本中提取用户信息,以JSON格式输出,包含字段:name(姓名)、phone(手机号)、address(地址)、register_time(注册时间)。

    文本:用户张三,手机号13800138000,2025年9月15日注册账号,现居住在北京市朝阳区建国路88号.

  2. 预期JSON输出:

json 复制代码
{
    "name": "张三", 
    "phone": "13800138000",
    "address": "北京市朝阳区建国路88号",
    "register_time": "2025-09-15"
}
  1. Pydantic校验代码:
py 复制代码
from pydantic import BaseModel, ValidationError
from datetime import date


# 定义用户信息数据模型
class UserInfo(BaseModel):
    name: str  # 姓名(字符串类型)
    phone: str  # 手机号(字符串类型,避免丢失前导0)
    address: str  # 地址(字符串类型)
    register_time: date  # 注册时间(日期类型)


# 假设LLM输出的JSON字符串
llm_output_json = '''
{
    "name": "张三",
    "phone": "13800138000",
    "address": "北京市朝阳区建国路88号",
    "register_time": "2025-09-15"
}
'''

# 解析与校验
try:
    user_info = UserInfo.model_validate_json(llm_output_json)
    print("数据校验成功!")
    print(f"姓名:{user_info.name}")
    print(f"注册时间类型:{type(user_info.register_time)}")
    # 输出:<class 'datetime.date'>
except ValidationError as e:
    print("数据校验失败:", e)

五、高级提示技术:推理增强与行动交互

高级提示技术聚焦于提升模型的复杂推理能力与主动交互能力,通过引导模型显式展示思考过程、动态调用工具,实现从文本生成任务执行的跨越,是构建高级智能体的核心支撑。

(一)推理增强技术:提升复杂问题解决能力

  1. 思维链(Chain of Thought, CoT):要求模型生成中间推理步骤,模拟人类分解问题的过程,显著提升数学计算、逻辑推理等复杂任务的准确率。

    分为零样本CoT与少样本CoT两种形式。

    零样本CoT示例

    提示:

    "一列火车以每小时80公里的速度从A地开往B地,两地相距480公里,火车上午9点出发,下午几点能到达?请一步一步思考并给出答案。";

    预期输出:

    "第一步:计算火车行驶时间,时间=路程÷速度=480公里÷80公里/小时=6小时;第二步:计算到达时间,上午9点+6小时=下午3点;答案:下午3点。"

    少样本CoT示例

    提示:请解决以下逻辑题,先写出推理过程再给出答案。

    示例:

    题目:甲、乙、丙三人中,甲比乙大3岁,丙比乙小2岁,谁的年龄最大? 推理过程:设乙的年龄为x岁,则甲的年龄为x+3岁,丙的年龄为x-2岁。比较x+3、x、x-2,可知甲的年龄最大。答案:甲。 题目:A、B、C三个仓库共存粮120吨,A仓库存粮是B仓库的2倍,C仓库存粮比B仓库少20吨,三个仓库各存粮多少吨?";

    预期输出:

    "推理过程:设B仓库存粮x吨,则A仓库存粮2x吨,C仓库存粮x-20吨。根据总存粮量可得:2x + x + (x-20) = 120,化简得4x -20 = 120,4x=140,x=35。因此A仓库存粮2×35=70吨,B仓库35吨,C仓库35-20=15吨。答案:A仓库70吨,B仓库35吨,C仓库15吨。

  2. 自洽性(Self-Consistency):在CoT基础上,通过生成多条推理路径并选取最一致的答案,提升推理可靠性。适用于对结果准确性要求高的场景。

    示例(常识判断)

    提示:"'所有哺乳动物都生活在陆地上'这个说法正确吗?请给出3种不同的推理思路,最后总结结论。";

    预期输出:

    推理思路1:哺乳动物的定义是胎生、哺乳的动物,鲸鱼是胎生哺乳的哺乳动物,但生活在海洋中,因此该说法错误;

    推理思路2:常见哺乳动物中,狗、猫生活在陆地,但海豚也是哺乳动物,生活在水中,存在反例,说法错误;

    推理思路3:哺乳动物的栖息地多样,包括陆地、海洋、空中(如蝙蝠),并非都生活在陆地,说法错误。

    结论:该说法不正确。

  3. 思维树(Tree of Thoughts, ToT):CoT的进阶形式,让模型并行探索多条推理路径,每个节点代表一个"思考步骤",可从节点分支探索不同解决方案,适用于需要多方案评估、回溯调整的复杂任务。

    示例(故事创作)

    提示:

    为以下故事开头设计3个不同的发展结局,采用思维树形式展示推理过程,再分别撰写结局内容。故事开头:'小明在旧书摊发现了一本写满神秘符号的笔记本,翻开第一页,符号突然发出了微弱的光芒。';

    预期输出:

    思维树:

    分支1:符号是时空传送密码→小明被传送到古代→结局方向:穿越冒险;

    分支2:符号是外星文明信号→笔记本发出求救信号→结局方向:外星接触;

    分支3:符号是爷爷的藏宝图→小明根据符号寻找宝藏→结局方向:亲情与探险;

    结局1(穿越冒险):......;

    结局2(外星接触):......;

    结局3(亲情探险):......。

(二)行动交互技术:实现智能体与环境联动

  1. 工具使用/函数调用:通过提示引导模型判断何时需要调用外部工具(如网页搜索、数据库查询、API调用),并生成结构化的工具调用指令,由智能体系统执行工具后将结果反馈给模型,形成"感知-推理-行动"的闭环。

    示例(天气查询)

    提示:"你可以调用天气查询工具get_current_weather,工具参数为:city(城市名称,字符串类型)、date(查询日期,格式为YYYY-MM-DD)。用户问题:上海2025年12月25日的天气如何?请生成工具调用指令。";

    预期输出:"{"tool_name":"get_current_weather","parameters":{"city":"上海","date":"2025-12-25"}}"

  2. ReAct(Reason & Act):融合CoT推理与工具使用,模拟人类"思考-行动-观察-再思考"的交互过程,适用于需要动态获取外部信息的复杂任务。

    中文实例(旅游攻略规划)

    用户问题:"我计划2025年12月去哈尔滨旅游,想知道当地的气温、必去景点及适合带孩子的活动,帮我整理一份3天的攻略。"

    提示引导的ReAct流程:

    思考1:用户需要哈尔滨12月气温、必去景点、亲子活动及3天攻略,气温和部分景点信息可能随季节变化,需要调用搜索工具获取最新数据;

    行动1:Search({\"query\":[\"2025年12月哈尔滨气温\",\"哈尔滨必去亲子景点\",\"哈尔滨3天旅游攻略\"]})

    观察1:(工具返回结果)12月哈尔滨气温-20~-5℃;必去亲子景点:哈尔滨冰雪大世界(有儿童冰雪乐园)、太阳岛雪博会、东北虎林园;

    思考2:已获取核心信息,可结合气温建议用户携带保暖衣物,根据亲子景点规划3天行程,每天合理分配景点,避免行程过满;

    行动2:生成攻略(无需再调用工具);

    最终输出:"2025年12月哈尔滨气温较低(-20~-5℃),建议携带羽绒服、雪地靴等保暖衣物。3天亲子旅游攻略:......"

六、高级拓展技术:自动化与定制优化

高级拓展技术聚焦于提升提示工程的效率与个性化程度,通过自动化优化、外部知识集成、用户画像适配等方式,实现提示方案的规模化落地与精准化适配。

(一)自动提示工程(APE):减少人工迭代成本

自动提示工程利用LLM作为"元模型",根据任务描述自动生成多个候选提示,通过预设的评估指标(如BLEU、ROUGE分数或人工评分)筛选最优提示,并进行迭代优化。适用于大规模、标准化的任务场景。

示例(文本分类任务的自动提示生成)

元提示:请为'电商评论情感分类任务'生成5个候选提示,任务要求:将评论分为正面、负面、中性,输出格式为'情感标签:评论内容',候选提示需符合清晰具体、简洁精炼的原则。;

元模型输出(候选提示示例):

  1. 将以下电商评论分类为正面、负面、中性,输出格式:情感标签:评论内容;评论:[评论文本];
  2. 判断电商评论的情感倾向(正面/负面/中性),按'情感:评论'的格式输出;输入评论:[评论文本];

后续流程:通过测试集验证5个候选提示的分类准确率,选择准确率最高的提示作为最终方案。

(二)检索增强生成(RAG):提升响应的准确性与时效性

RAG技术通过检索外部知识库(如企业文档、行业报告、实时数据),将相关信息整合到提示的上下文,让模型基于最新、最准确的事实生成响应,有效减少模型"幻觉",适用于需要动态更新知识的场景。

示例(技术文档问答)

用户问题:某CRM系统如何设置客户标签?;

系统流程:

  1. 检索企业内部CRM系统V3.0版本的技术文档;
  2. 提取与"客户标签设置"相关的文档片段;
  3. 构建提示; 提示:"根据以下技术文档片段:'【文档片段】CRM系统V3.0版本客户标签设置步骤:1. 登录系统后台,进入"客户管理"模块;2. 点击"标签管理",选择"新增标签";3. 输入标签名称、选择标签类型(客户属性/购买行为),点击"保存";
  4. 批量或单个选择客户,勾选对应标签完成关联。请回答用户问题:某品牌V3.0版本的CRM系统如何设置客户标签?";

预期输出:

某CRM系统设置客户标签的步骤如下:

  1. 登录系统后台,进入"客户管理"模块;
  2. 点击"标签管理",选择"新增标签";
  3. 输入标签名称并选择标签类型(客户属性/购买行为),点击"保存";
  4. 选择目标客户,勾选标签完成关联。

(三)用户画像模式:精准适配目标受众

用户画像模式通过描述目标用户的身份、知识背景、需求偏好等信息,引导模型调整语言风格、内容复杂度与信息呈现方式,实现个性化响应。区别于角色提示(为模型分配身份),用户画像聚焦于"适配受众"。

示例(知识科普)

提示:

请向以下用户解释'人工智能大模型'的概念:【用户画像】小学5年级学生,无人工智能相关基础,喜欢卡通形象类比。要求:语言简单易懂,结合卡通形象类比,避免专业术语。

预期输出:

人工智能大模型就像一个拥有超级记忆力和学习能力的卡通小精灵。它从小就阅读了全世界的书籍、图片和视频,学会了理解人类的语言、画画、回答问题。你问它'天空为什么是蓝色的',它能像老师一样用简单的话告诉你;你让它画一只会飞的小猪,它也能快速画出来。这个小精灵的特点是越学习越聪明,能帮我们做很多有趣的事情。

(四)任务拆分

将复杂任务拆分为多个逻辑关联的子任务,分别对每个子任务设计提示,最后整合各子任务的输出结果,避免因任务过于复杂导致模型理解偏差。适用于论文撰写、复杂报告生成、多步骤规划等场景。

示例(论文撰写)

总任务:撰写《人工智能对教育行业的影响》研究论文;

子任务拆分与对应提示:

  • 子任务1:生成论文大纲;提示:撰写《人工智能对教育行业的影响》的详细论文大纲,包含引言、核心影响(分正面/负面)、案例分析、对策建议、结论5个主要部分,每个部分列出2-3个二级要点。;
  • 子任务2:撰写引言;提示:根据以下大纲的引言部分要点,撰写论文引言,要求结合当前AI教育的发展背景,提出研究意义,字数300-400字。【大纲要点】引言:AI教育的发展现状、研究背景、研究意义、论文结构;
  • 子任务3:撰写核心章节;提示:结合以下案例和数据,撰写《人工智能对教育行业的影响》的'核心'章节,正面影响部分突出个性化学习、教学效率提升,负面影响部分分析教育公平、教师角色冲击;
  • 子任务4:整合与修改;提示:将以下论文各章节内容(引言、核心影响、案例分析、对策建议)整合为完整论文,修正语句不通顺之处,调整段落衔接,确保逻辑连贯。

七、特定任务提示策略:代码与多模态

针对代码生成、多模态交互等特殊任务,需要设计专用的提示策略,充分发挥模型的专项能力。

(一)代码提示:精准适配开发场景

代码提示需明确三个核心要素:编程语言与版本、功能需求、输入输出格式(或约束条件),复杂场景下可提供部分示例代码或伪代码。常见代码提示场景包括:代码生成、代码解释、代码翻译、调试优化。

示例(代码生成+调试)

  • 代码生成实例:

    提示:

    用Python 3.10编写一个函数,输入为整数列表,输出为列表中所有偶数的平方和。要求:包含函数注释,处理空列表输入的异常情况。

    预期输出:

    py 复制代码
    def even_square_sum(num_list: list[int]) -> int:
    """
    计算整数列表中所有偶数的平方和
    
    参数:
        num_list (list[int]): 整数列表
    
    返回:
        int: 所有偶数的平方和(整数)
    
    异常处理:
        空列表返回0
    """
    if not num_list:
        return 0
    
    total = 0
    for num in num_list:
        if num % 2 == 0:
            total += num ** 2
    
    return total
  • 代码调试实例:

    提示:

    以下Python代码运行时出现错误,请找出错误原因并修改。代码:def add(a, b): return a + b;调用:print(add([1,2], 3))

    错误信息:TypeError: can only concatenate list (not \"int\") to list

    预期输出:

    错误原因:函数add接收的两个参数类型不一致(一个是列表,一个是整数),列表与整数无法直接进行加法运算。修改方案:根据需求调整参数类型,若需将整数添加到列表,可修改函数为:def add(a, b): a.append(b); return a;调用:print(add([1,2], 3)),输出:[1,2,3]

(二)多模态提示:融合多种输入形式

多模态提示通过整合文本、图片、音频、视频等多种输入形式,引导模型完成跨模态任务。当前主流LLM的多模态提示以"文本+图片"为主,提示需明确说明输入模态类型与任务目标。

示例(图片+文本提示)

提示:

【输入模态】文本+图片(图片内容:一张包含小猫、沙发、咖啡杯的客厅场景图);

【任务】

ini 复制代码
用中文描述图片中的核心元素及场景氛围;
为这张图片创作一句温馨的文案。

预期输出:

核心元素:一只橘色小猫蜷缩在浅灰色沙发上,沙发旁的茶几上放着一杯冒着热气的咖啡杯,整体场景整洁温馨。文案:暖阳午后,猫咪相伴,一杯咖啡,治愈所有疲惫。

八、提示工程的最佳实践

结合大量实践经验,总结以下10条核心最佳实践,帮助我们快速提升提示效果:

  • 示例优先:复杂任务优先使用单样本/少样本提示,示例要覆盖任务的核心变体;
  • 格式规范:使用结构化分隔符划分提示各部分,避免信息混淆;
  • 输出明确:清晰定义输出的格式、长度、风格,非创意任务优先使用结构化输出;
  • 正面引导:优先使用"请做XX"的正面指令,减少"不要做XX"的负面约束;
  • Token控制:根据模型上下文窗口大小规划提示长度,避免输入/输出超出Token限制;
  • 变量复用:将重复出现的内容(如固定格式、通用规则)设为变量,提升提示复用性;
  • 顺序优化:分类任务中随机排列示例顺序,避免模型过拟合序列;
  • 版本适配:模型版本更新后,重新测试现有提示,必要时调整优化;
  • 实验记录:建立提示迭代日志,记录提示版本、模型参数、输出结果与优化方向;
  • 自动化测试:生产环境中搭建提示的自动化测试体系,确保泛化能力与稳定性。

九、总结

提示工程的本质是将通用LLM转化为专用智能工具的工程化方法,其核心价值在于通过精准的输入设计,弥补自然语言的歧义性,提升模型输出的确定性与可控性。

参考内容:

1\] A. Gulli, *Agentic Design Patterns*. 2025.

相关推荐
德育处主任Pro1 天前
『n8n』让AI长记性
llm·aigc·deepseek·n8n
Engineer邓祥浩1 天前
设计模式学习(20) 23-18 中介者模式
学习·设计模式·中介者模式
不穿格子的程序员1 天前
设计模式篇2——观察者模式:以直播间送礼系统举例
java·观察者模式·设计模式
小码过河.1 天前
设计模式——解释器模式
java·设计模式·解释器模式
小Pawn爷1 天前
6.本地安装Fingpt
python·llm
猿小羽1 天前
Spring AI + MCP 实战:构建标准化 AI 智能代理与上下文集成
java·spring boot·llm·ai agent·spring ai·anthropic·mcp
多则惑少则明1 天前
AI大模型综合(四)prompt提示词工程
人工智能·llm·prompt
老蒋每日coding1 天前
AI Agent 设计模式系列(二十)—— 优先级排序设计模式
人工智能·设计模式
鱼跃鹰飞1 天前
设计模式系列:工厂模式
java·设计模式·系统架构
CoderJia程序员甲2 天前
GitHub 热榜项目 - 日榜(2026-01-25)
开源·大模型·llm·github·ai教程