LLM论文笔记 12: Teaching Arithmetic to Small Transformers

  • Arxiv日期:2023.7.7
  • 机构:University of Wisconsin-Madison / Princeton University

关键词

  • 算数运算推理
  • 长度泛化
  • 实验结论

核心结论

  1. 算数运算NTP中数据格式使用reverse 或者scratchpad格式(CoT)可以显著提高精确度,cot可以显著减小需要的训练数据量
  1. 数据平衡和采样策略:平衡不同位数和进位的sample显著提高性能

  2. 泛化能力:对训练中未见的数值表现出一定的泛化能力,但对未训练的更长位数加法的泛化能力有限(基本没有长度泛化)-> 学习的是一种有限的函数映射,而非灵活的算法

  3. 混合数据训练(文本+算术)+ few shot 显著提高精度

  4. 精心设计的数据格式可以在小模型上提到极高的性能

主要方法

观察到算数运算(加减乘除开根)上简单微调NTP是次优的(如加法123+456=579第一个预测的结果位是5,但是5由7和9决定),提出算数运算上的结构化数据(reverse / scratchpad即cot),以加法为例建模为低秩矩阵补全并提出一定数据量产生性能跃迁。

还发现了平衡不同位数和进位的sample显著提高性能。局限性在于长度泛化几乎不出现。

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
caig0004 分钟前
稳定币的深度剖析与展望
人工智能·区块链
反向跟单策略6 分钟前
期货反向跟单运营逻辑推导思路
大数据·人工智能·数据分析·区块链
机器之心31 分钟前
MoE推理「王炸」组合:昇腾×盘古让推理性能狂飙6-8倍
人工智能
艾醒(AiXing-w)40 分钟前
探索大语言模型(LLM):RSE流程详解——从文档中精准识别高相关片段
数据库·人工智能·语言模型
陈奕昆1 小时前
4.2 HarmonyOS NEXT分布式AI应用实践:联邦学习、跨设备协作与个性化推荐实战
人工智能·分布式·harmonyos
崔高杰1 小时前
To be or Not to be, That‘s a Token——论文阅读笔记——Beyond the 80/20 Rule和R2R
论文阅读·笔记
AI.NET 极客圈1 小时前
.NET 原生驾驭 AI 新基建实战系列(六):Pinecone ── 托管向量数据库的向量数据库的云原生先锋
数据库·人工智能·.net
YBCarry_段松啓1 小时前
uv:下一代 Python 包管理器
人工智能·python
聚客AI1 小时前
深度解构神经网络的底层引擎:从感知机到反向传播的数学之旅
人工智能·神经网络·掘金·日新计划
yorushika_1 小时前
python打卡训练营打卡记录day45
开发语言·python·深度学习·tensorboard