CoT进阶:Self Consistency, Least-To-Most

CoT进阶

    • [一:Self Consistency](#一:Self Consistency)
      • [1.1 方法简介](#1.1 方法简介)
      • [1.2 实验](#1.2 实验)
      • [1.3 结果](#1.3 结果)
    • 二:Least-to-most
      • [2.1 方法简介](#2.1 方法简介)
      • [2.2 示例](#2.2 示例)
      • [2.3 结果](#2.3 结果)

一:Self Consistency

题目: SELF-CONSISTENCY IMPROVES CHAIN OF THOUGHT REASONING IN LANGUAGE MODELS

机构:Google Brain, ICLR 2023

论文: https://arxiv.org/pdf/2203.11171.pdf

任务: 对于复杂问题而言,往往可以从多条推理路径得到最终的答案,因此将原来的CoT贪心解码进行优化,提出一种Self Consistency的解码算法

特点: sample-and-marginalize,投票,能够避免CoT的解码的局部最优以及输出重复,可以视作一种"self-ensemble",无需训练/标注/微调,很容易与现存的采样算法,比如 temperature sampling, top-k samplingnucleus sampling即插即用。

前置相关工作:CoT

1.1 方法简介

  1. 利用CoT prompting大模型
  2. 将CoT中的贪心解码替换为采样生成一组推理路径
  3. 答案一致性投票

关于NLG的各种采样算法:Greedy Search (Maximization),Beam Search,Temperature Sampling,Top-K Sampling,Top-P Sampling (Nucleus sampling),可以参见:

  1. https://www.cnblogs.com/miners/p/14950681.html
  2. THE CURIOUS CASE OF NEURAL TEXT DeGENERATION

1.2 实验

  • Arithmetic Reasoning
  • Commonsense and Symbolic Reasoning
  • SELF-CONSISTENCY HELPS WHEN CHAIN-OF-THOUGHT HURTS PERFORMANCE
  • Comparison to Sample-and-Rank
  • Comparison to Beam Search
  • Comparison to Ensemble-based Approaches
  • Self-Consistency is Robust to Sampling Strategies and Scaling
  • Self-Consistency Improves Robustness to Imperfect Prompts
  • Self-Consistency Works for Non-Natural-Language Reasoning Paths and Zero-shot CoT

1.3 结果

二:Least-to-most

题目: LEAST-TO-MOST PROMPTING ENABLES COMPLEX REASONING IN LARGE LANGUAGE MODELS

机构:Google Brain, ICLR 2023

论文: https://arxiv.org/pdf/2205.10625.pdf

任务: 为了克服CoT在easy-to-hard示例学习中的泛化性

方法:将复杂的问题分解为一系列的更简单的子问题,然后一个接一个解决,每一个待解决的子问题,都会被上一个已经解决好的子问题的答案促进

特点: 方法中的两个阶段都是通过几次提示(few-shot prompting)来实现的,因此在任何阶段都不需要训练或微调

前置相关工作:CoT,self consistency

2.1 方法简介

为了解决easy-to-hard的泛化性问题,提出Least-to-most prompting方法,它包含两个阶段:

  1. 将一个复杂的问题,分解为一序列简单的子问题
  2. 依次解决这些子问题,每一个待解决的子问题,都需要历史已经解决的子问题的答案来促进

2.2 示例

该论文在SYMBOLIC MANIPULATION,COMPOSITIONAL GENERALIZATION,MATH REASONING进行了实验,这儿展示MATH REASONING的示例以及结果
Least-to-most 样例:

CoT 样例:

2.3 结果

相关推荐
NocoBase几秒前
【2.0 教程】第 1 章:认识 NocoBase ,5 分钟跑起来
数据库·人工智能·开源·github·无代码
后端小肥肠6 分钟前
OpenClaw实战|从识图到公众号内容自动化,我跑通了完整链路
人工智能·aigc·agent
Elastic 中国社区官方博客20 分钟前
快速 vs. 准确:衡量量化向量搜索的召回率
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索
qq_3813385028 分钟前
【技术日报】2026-03-18 AI 领域重磅速递
大数据·人工智能
NocoBase35 分钟前
开源项目管理工具选型指南(2026年最新)
人工智能·开源·无代码
feasibility.1 小时前
AI 爬虫高手养成:Openclaw+Scrapling 手动部署 + 采集策略(以Walmart 电商平台为例)
人工智能·爬虫·科技·机器人·agi·openclaw·scrapling
程序员老猫1 小时前
前端菜鸡狂喜!DeepSeek+Gemini,嘴炮出完整博客方案
人工智能
AI周红伟2 小时前
周红伟:《OpenClaw安全防控:OpenClaw++Skills智能体安全部署、实操和企业应用实操》
人工智能·阿里云·云计算·腾讯云·openclaw
火山引擎开发者社区2 小时前
ArkClaw 适配微信,可以在微信上指挥你的龙虾啦
人工智能
小超同学你好2 小时前
Langgraph 18. Skill 四种形态 —— Inline / File-based / External / Meta(含代码示例)
人工智能·语言模型·langchain