LLM论文笔记 25: Chain-of-Thought Reasoning without Prompting

  • Arxiv日期:2024.5.31
  • 机构:Google DeepMind

关键词

  • cot-decoding
  • 推理路径
  • pretrain

核心结论

  1. LLMs 不需要prompting就可以生成链式推理路径,prompting只是将这些能力显性化的一种手段

  2. cot path 往往与更高的model confidence相关,可以用作可靠性的metric

  3. 探索多样化的解码路径能有效挖掘模型的内在推理能力,而不仅仅依赖于模型规模或训练数据的多样性

  4. CoT-Decoding 可以弥补 模型未经过指令调优时的推理能力缺陷,并在指令调优的模型中进一步优化性能

  5. Cot-Decoding适用于多种任务和语言模型,显示出显著的通用性和鲁棒性

主要方法

(验证了内在推理能力的存在)使用pretrain模型,不使用greedy decoding,而是在第一个token预测使用top-k发现内化cot推理能力,且带cot的答案置信度更高

置信度衡量标准:

answer中每一个token在NTP时当前token和下一个token的概率差异

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
GISer_Jing28 分钟前
AI开发实战:从零搭建智能应用
人工智能·prompt·aigc
WZGL123029 分钟前
智慧养老方兴未艾,“AI+养老”让银龄老人晚年更美好
大数据·人工智能·物联网·生活·智能家居
狼爷32 分钟前
一文看懂 AI 世界里的新黑话Skills、MCP、Projects、Prompts
人工智能·openai·ai编程
疾风sxp35 分钟前
nl2sql技术实现自动sql生成之langchain4j SqlDatabaseContentRetriever
java·人工智能·langchain4j
DisonTangor36 分钟前
阿里Qwen开源Qwen3-VL-Embedding 和 Qwen3-VL-Reranker
人工智能·搜索引擎·开源·aigc·embedding
其美杰布-富贵-李37 分钟前
深度学习中的 tmux
服务器·人工智能·深度学习·tmux
<-->37 分钟前
deepspeed vs vllm
人工智能
Sinokap44 分钟前
Perplexity 10 月更新:AI 搜索体验再升级,让信息更近一步
人工智能·perplexity
檐下翻书1731 小时前
PC端免费跨职能流程图模板大全 中文
大数据·人工智能·架构·流程图·论文笔记
LaughingZhu1 小时前
Product Hunt 每日热榜 | 2026-01-12
人工智能·经验分享·深度学习·神经网络·产品运营