LLM论文笔记 24: A Theory for Length Generalization in Learning to Reason

  • Arxiv日期:2024.7.29
  • 机构:University of Illinois Chicago

关键词

  • 长度泛化
  • 理论证明

核心结论

  • Theorem 3.1:因果函数的学习条件

    • 因果函数 f 是完全可学习的(输入空间有限、因果函数输入维度有限),即可以通过有限的训练数据准确地学习到目标函数
  • Corollary 3.1.1:数据覆盖不足的影响

    • 训练数据未覆盖输入空间 X 的所有可能值,模型可能无法正确预测未知输入上的因果关系
  • Corollary 3.1.2:输入空间无限的后果

    • 如果输入空间 X 或输入维度是无限的,无论训练数据集有多大,模型在未知输入上的误差总是可能任意大
  • Theorem 3.2:递归推理与长度泛化

    • 如果因果函数 f 被完全学习,推理问题可以表示为有向无环图(DAG),则通过递归地应用 f ,可以解决任意长度或规模的问题

    • 训练中仅见过小规模问题的模型可以泛化到更长的推理任务

  • Theorem 3.3:局部性条件与滑动窗口机制

    • 滑动窗口是解决长度泛化问题的充分条件

    • 如果推理问题的最大输入元素距离 R < ∞ ,并且训练数据包含所有长度为 4R+1 的子序列(可以通过滑动窗口(长度为 4R+1 )唯一确定下一步推理的输入)

  • Definition 3.3:well-defined 的因果输入恢复

    • 如果推理问题是 (n, r) -一致的,可以定义一个函数 ,通过 n 个长度为 r 的子序列唯一恢复当前推理步骤所需的因果输入
  • Theorem 3.5:从 R < ∞ (1, 4R+1) -一致性

    • 如果 R < ∞ 且每个输入元素最多参与一个推理步骤,则问题是 (1, 4R+1) -一致的
  • Theorem 3.6:因果输入的可恢复性

    • 如果问题是 (n, r) -一致的:

      • 可以通过 n 个长度为 r 的子序列恢复推理步骤中所有的因果输入。

      • 因果输入集合 是well-defined 的,并可以通过函数 \gamma 唯一确定。

  • Theorem 3.7: 的学习性

    • 如果问题是 (n, r) 一致的,函数 可以通过有限训练数据学习。

主要方法

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
no_work2 分钟前
yolo摄像头下的目标检测识别集合
人工智能·深度学习·yolo·目标检测·计算机视觉
一只叫煤球的猫7 分钟前
为什么不用 RAG 做记忆系统 ——压缩上下文与 memory.md 的架构选择
人工智能·后端·ai编程
智能工业品检测-奇妙智能13 分钟前
国产化系统的性价比对比
人工智能·spring boot·后端·openclaw·奇妙智能
咚咚王者15 分钟前
人工智能之语言领域 自然语言处理 第十九章 深度学习框架
人工智能·深度学习·自然语言处理
独隅17 分钟前
Python AI 全面使用指南:从数据基石到智能决策
开发语言·人工智能·python
啊巴矲19 分钟前
小白从零开始勇闯人工智能:机器学习汇总(复习大纲篇)
人工智能
耶叶22 分钟前
如何在AndroidStudio里面接入你的AI助手
人工智能·android-studio
OpenBayes贝式计算23 分钟前
教程上新丨基于 GPU 部署 OpenClaw,轻松接入飞书/Discord 等社交软件
人工智能·深度学习·机器学习
小超同学你好32 分钟前
Langgraph 17. Skills 三级加载与 Token 优化(含代码示例)
人工智能·语言模型·langchain
吴佳浩 Alben33 分钟前
GPU 编号错乱踩坑指南:PyTorch cuda 编号与 nvidia-smi 不一致
人工智能·pytorch·python·深度学习·神经网络·语言模型·自然语言处理