使用LLM时,我们可以通过一些方法,从而使得LLM中获取准确有效的回复。
这里介绍一些概念方法,来帮助你在企业生态体系内构建更加稳健、高效的生成式 AI 功能。
One-shot Prompting
One-shot Prompting 是指在一次提示中,提供单一明确指令及全部必要上下文(不包含示例输入输出对),由模型仅基于当前输入和预训练知识生成结果的提示方式。
用户仅需明确表达请求,并附上相关数据。LLM 会解析该指令,并尝试根据提供的信息生成符合要求的响应。
该技术适用于定义清晰、无歧义的通用性质的任务,例如
- 简单摘要(例如:"总结这篇文章。")
- 基础问答(例如:"中国的首都是哪里?")
- 直接分类(例如:"这个评价是积极还是消极的")
开发者可以使用该方法构建单次交互的 API 调用场景,适用于任务定义清晰、无需示例引导且输出格式相对明确的场景。
Few-Shot Prompting
Few-shot 指的是在提示中提供少量(通常为 1 至 5 个)输入输出示例。这些示例用于展示期望完成的任务类型、输出格式以及行为方式,使 LLM 可以在执行实际请求前先学习相应的模式。
具体来说,用户可以向 LLM 提供一组完整示例,明确说明你希望AI做什么以及如何做。在这些示例之后,再给出一个新的实际输入,请模型基于前述示例的模式生成对应输出。模型会利用示例中呈现的结构和规律,最终生成符合给定要求的格式和风格的结果。适用于以下类型的任务:
- 对输出结果有格式要求(例如 JSON、XML 或特定报告模板)。
- 细微语义理解:当任务具有领域特定性,或需要模型识别难以用纯文字准确描述的细微模式或区分。
- 一致的风格或语气:当需要模型保持特定表达风格或符合品牌规范。
- 自定义分类任务:当文本需被分类到模型原本不熟悉的类别中(例如自定义错误代码或产品特定的情感分类)。
开发者可以利用 Few-shot 提示,通过示例约束模型输出模式,在企业专属或复杂业务场景中确保输出格式统一、语义一致,从而更可靠地对接不同系统接口。
Meta Prompting
Meta Prompting通常也叫做system prompting,是指提供一个总体性的指令,用来定义模型的角色、整体目标、约束条件或其在整个会话或一系列交互中必须遵循的规则。为后续所有子提示设定一个基线。
该指令通常位于任何具体用户请求之前。目的是给模型一套前置指导原则,这些原则将支配后续用户的交互响应。适用于以下场景:
Meta 提示在以下场景中尤为有效:
- 建立角色设定: 让模型扮演特定专家或助手角色(例如:"你是一名资深财务分析师。")。
- 设置安全与合规边界: 强化安全、伦理或领域规则(例如:"不要讨论政治问题")。
- 明确整体目标: 指导模型在对话中的总体方向(例如:"你的目标是帮助用户排查安全问题。")。
- 保证跨轮一致性: 在多轮对话中维持一致的语气、风格或表达规范。
开发者可以使用Meta Prompting构建对话式 AI 代理、企业内部知识助手,以及需要严格遵循企业政策与数据治理规则的应用。