LLM论文笔记 25: Chain-of-Thought Reasoning without Prompting

  • Arxiv日期:2024.5.31
  • 机构:Google DeepMind

关键词

  • cot-decoding
  • 推理路径
  • pretrain

核心结论

  1. LLMs 不需要prompting就可以生成链式推理路径,prompting只是将这些能力显性化的一种手段

  2. cot path 往往与更高的model confidence相关,可以用作可靠性的metric

  3. 探索多样化的解码路径能有效挖掘模型的内在推理能力,而不仅仅依赖于模型规模或训练数据的多样性

  4. CoT-Decoding 可以弥补 模型未经过指令调优时的推理能力缺陷,并在指令调优的模型中进一步优化性能

  5. Cot-Decoding适用于多种任务和语言模型,显示出显著的通用性和鲁棒性

主要方法

(验证了内在推理能力的存在)使用pretrain模型,不使用greedy decoding,而是在第一个token预测使用top-k发现内化cot推理能力,且带cot的答案置信度更高

置信度衡量标准:

answer中每一个token在NTP时当前token和下一个token的概率差异

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
白-胖-子39 分钟前
深入剖析大模型在文本生成式 AI 产品架构中的核心地位
人工智能·架构
想要成为计算机高手2 小时前
11. isaacsim4.2教程-Transform 树与Odometry
人工智能·机器人·自动驾驶·ros·rviz·isaac sim·仿真环境
NeoFii2 小时前
Day 22: 复习
机器学习
静心问道3 小时前
InstructBLIP:通过指令微调迈向通用视觉-语言模型
人工智能·多模态·ai技术应用
宇称不守恒4.03 小时前
2025暑期—06神经网络-常见网络2
网络·人工智能·神经网络
小楓12013 小时前
醫護行業在未來會被AI淘汰嗎?
人工智能·醫療·護理·職業
数据与人工智能律师4 小时前
数字迷雾中的安全锚点:解码匿名化与假名化的法律边界与商业价值
大数据·网络·人工智能·云计算·区块链
chenchihwen4 小时前
大模型应用班-第2课 DeepSeek使用与提示词工程课程重点 学习ollama 安装 用deepseek-r1:1.5b 分析PDF 内容
人工智能·学习
说私域4 小时前
公域流量向私域流量转化策略研究——基于开源AI智能客服、AI智能名片与S2B2C商城小程序的融合应用
人工智能·小程序
Java樱木4 小时前
AI 编程工具 Trae 重要的升级。。。
人工智能