LLM论文笔记 25: Chain-of-Thought Reasoning without Prompting

  • Arxiv日期:2024.5.31
  • 机构:Google DeepMind

关键词

  • cot-decoding
  • 推理路径
  • pretrain

核心结论

  1. LLMs 不需要prompting就可以生成链式推理路径,prompting只是将这些能力显性化的一种手段

  2. cot path 往往与更高的model confidence相关,可以用作可靠性的metric

  3. 探索多样化的解码路径能有效挖掘模型的内在推理能力,而不仅仅依赖于模型规模或训练数据的多样性

  4. CoT-Decoding 可以弥补 模型未经过指令调优时的推理能力缺陷,并在指令调优的模型中进一步优化性能

  5. Cot-Decoding适用于多种任务和语言模型,显示出显著的通用性和鲁棒性

主要方法

(验证了内在推理能力的存在)使用pretrain模型,不使用greedy decoding,而是在第一个token预测使用top-k发现内化cot推理能力,且带cot的答案置信度更高

置信度衡量标准:

answer中每一个token在NTP时当前token和下一个token的概率差异

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
张较瘦_9 分钟前
[论文阅读] 人工智能 | 用大语言模型抓虫:如何让网络协议实现与RFC规范对齐
论文阅读·人工智能·语言模型
qb_jiajia15 分钟前
微软认证考试科目众多?该如何选择?
人工智能·microsoft·微软·云计算
pen-ai28 分钟前
【统计方法】蒙特卡洛
人工智能·机器学习·概率论
说私域34 分钟前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的生态农庄留存运营策略研究
人工智能·小程序·开源·零售
摘取一颗天上星️42 分钟前
大模型微调技术全景图:从全量更新到参数高效适配
人工智能·深度学习·机器学习
要努力啊啊啊1 小时前
策略梯度核心:Advantage 与 GAE 原理详解
论文阅读·人工智能·深度学习·自然语言处理
AI航海家(Ethan)1 小时前
RAG技术解析:实现高精度大语言模型知识增强
人工智能·语言模型·自然语言处理
soldierluo1 小时前
AI基础知识(LLM、prompt、rag、embedding、rerank、mcp、agent、多模态)
人工智能·prompt·embedding
AWS官方合作商4 小时前
Amazon Augmented AI:人类智慧与AI协作,破解机器学习审核难题
人工智能·机器学习·aws
MPCTHU7 小时前
机器学习的数学基础:假设检验
数学·机器学习