大模型提示词技术笔记

检索增强生成(RAG)

通过检索器检索专有知识(向量数据库)并入输入给大模型,生成的答案更可靠,还有助于缓解"幻觉"问题。

LangChain 文档中可以找到一个使用检索器和 LLM 回答问题并给出知识来源的简单例子 python.langchain.com/docs/tutori...

自动推理并使用工具(ART)

交替运用 CoT 提示和工具已经被证明是一种强大而稳健的方法。使用冻结的 LLM 来自动生成包含中间推理步骤的程序,其工作原理如下:

  • 接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范。
  • 在测试中、调用工具时先暂停生成,将工具输出整合后继续接着生成。

自动提示工程师(APE)

自动指令生成和选择:

🤖 APE 是怎么工作的?

  1. 目标明确:告诉 AI 你想完成什么任务,比如"总结一段话"或"翻译成英文"。
  2. AI 自己生成提示语:系统会让 AI 自动生成很多种不同的提问方式(比如:"请总结这段话","给我一个简短的摘要","这段内容讲了啥?"等等)。
  3. 测试哪种最好:然后系统再让 AI 测试这些提示语,看哪个效果最好(也就是 AI 回答得最准确、最有用)。
  4. 选出最优提示:最后系统挑出那个"最棒的提示语",以后就可以直接用了!

🎯 举个例子:

假设你希望 AI 把中文翻译成英文。

  • APE 会自动生成一些提示语:
    • "请把下面这句话翻译成英文。"
    • "翻译这个句子为英语。"
    • "将以下内容转换为英文。"
  • 然后测试哪一句翻译得最准,就把那一句保留下来。

活动提示(Active-Prompt)

CoT 方法依赖人工样本范例,但这些范例可能不是不同任务的最有效的。Active-Prompt 方法为 LLM 应用到不同的任务提供了新的思路。

过程:

  1. 使用或不使用少量 CoT 示例查询 LLM,让 LLM 生成 K 个可能的答案
  2. 选择最不确定的问题由人类进行注释
  3. 使用新的注释范例来推断每个问题

方向性刺激提示

程序辅助语言模型(PAL)

读取自然语言问题并生成程序作为中间推理步骤。

自我反思(Reflexion)

写一个关于雨天的故事,100字即可 反思一下这个故事还有哪些提升的点 按照上面的反思来优化这个故事

相关推荐
山顶夕景1 小时前
【Agent】Openclaw架构(Gateway|subagent|工具过滤|Sandbox)
大模型·llm·agent·智能体·openclaw
xiezhr2 小时前
别被AI吓到了,一文看懂AI到底是啥?
人工智能·llm·openai
Irissgwe2 小时前
LangChain之聊天模型核心能力(二)
人工智能·langchain·llm·langgraph
山顶夕景18 小时前
【Agent】Claude code架构和源码粗读分析
大模型·llm·agent·线程·通信协议
龙侠九重天21 小时前
OpenClaw 与 Hermes 有何异同?——从系统架构到用户体验的全面对比
人工智能·ai·系统架构·大模型·llm·openclaw·hermes
薛定谔的猫3691 天前
深度解析 AI Agent 的未来:MCP 协议如何重塑大模型生态
ai·llm·agent·技术趋势·mcp
Thanks_ks1 天前
从辅助编码到架构重塑:基于 LLM 的智能开发工作流落地实战
自动化测试·大模型·llm·研发效能·模型微调·rag·提示词工程
智泊AI1 天前
AI Agent保姆级教程 | 从0~1构建一个属于你的AI Agent
llm
loong_XL1 天前
deepseek接入claude code文档;claude code常用快捷键
llm·deepseek
CoderJia程序员甲1 天前
GitHub 热榜项目 - 日榜(2026-04-27)
ai·大模型·llm·github