LLM论文笔记 25: Chain-of-Thought Reasoning without Prompting

  • Arxiv日期:2024.5.31
  • 机构:Google DeepMind

关键词

  • cot-decoding
  • 推理路径
  • pretrain

核心结论

  1. LLMs 不需要prompting就可以生成链式推理路径,prompting只是将这些能力显性化的一种手段

  2. cot path 往往与更高的model confidence相关,可以用作可靠性的metric

  3. 探索多样化的解码路径能有效挖掘模型的内在推理能力,而不仅仅依赖于模型规模或训练数据的多样性

  4. CoT-Decoding 可以弥补 模型未经过指令调优时的推理能力缺陷,并在指令调优的模型中进一步优化性能

  5. Cot-Decoding适用于多种任务和语言模型,显示出显著的通用性和鲁棒性

主要方法

(验证了内在推理能力的存在)使用pretrain模型,不使用greedy decoding,而是在第一个token预测使用top-k发现内化cot推理能力,且带cot的答案置信度更高

置信度衡量标准:

answer中每一个token在NTP时当前token和下一个token的概率差异

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
科技小花17 小时前
全球化深水区,数据治理成为企业出海 “核心竞争力”
大数据·数据库·人工智能·数据治理·数据中台·全球化
zhuiyisuifeng19 小时前
2026前瞻:GPTimage2镜像官网或将颠覆视觉创作
人工智能·gpt
徐健峰19 小时前
GPT-image-2 热门玩法实战(一):AI 看手相 — 一张手掌照片生成专业手相分析图
人工智能·gpt
weixin_3709763519 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
Slow菜鸟19 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
冬奇Lab19 小时前
RAG 系列(五):Embedding 模型——语义理解的核心
人工智能·llm·aigc
深小乐19 小时前
AI 周刊【2026.04.27-05.03】:Anthropic 9000亿美元估值、英伟达死磕智能体、中央重磅定调AI
人工智能
码点滴19 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
狐狐生风19 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
波动几何20 小时前
CDA架构代码工坊技能cda-code-lab
人工智能