AI学会隐藏思维暗中推理!不依赖人类经验解决复杂任务,更黑箱了

梦晨 发自 凹非寺

量子位 | 公众号 QbitAI

AI 做数学题,真正的思考居然是暗中 "心算" 的?

纽约大学团队新研究发现,即使不让 AI 写步骤,全用无意义的 "......" 代替,在一些复杂任务上的表现也能大幅提升!

一作 Jacab Pfau 表示:只要花费算力生成额外 token 就能带来优势,具体选择了什么 token 无关紧要

举例来说,让 Llama 34M 回答一个简单问题:自然常数 e 的前 6 位数字中,有几个大于 5 的?

AI 直接回答约等于瞎捣乱,只统计前 6 位数字居然统计出 7 个来。

让 AI 把验证每一数字的步骤写出来,便可以得到正确答案。

让 AI 把步骤隐藏,替换成大量的 "......",依然能得到正确答案!

这篇论文一经发布便掀起大量讨论,被评价为 "我见过的最玄学的 AI 论文"

那么,年轻人喜欢说更多的 "嗯......"、"like......" 等无意义口癖,难道也可以加强推理能力?

实际上,纽约大学团队的研究正是从思维链(Chain-of-Thought,CoT)出发的。

也就是那句著名提示词 "让我们一步一步地想"(Let's think step by step)。

过去人们发现,使用 CoT 推理可以显著提升大模型在各种基准测试中的表现。

目前尚不清楚的是,这种性能提升到底源于模仿人类把任务分解成更容易解决的步骤,还是额外的计算量带来的副产物。

为了验证这个问题,团队设计了两个特殊任务和对应的合成数据集:3SUM 和 2SUM-Transform。

3SUM 要求从一组给定的数字序列中找出三个数,使得这三个数的和满足特定条件,比如除以 10 余 0。

这个任务的计算复杂度是 O(n3),而标准的 Transformer 在上一层的输入和下一层的激活之间只能产生二次依赖关系。

也就是说,当 n 足够大序列足够长时,3SUM 任务超出了 Transformer 的表达能力

在训练数据集中,把与人类推理步骤相同长度的 "..." 填充到问题和答案之间,也就是 AI 在训练中没有见过人类是怎么拆解问题的。

在实验中,不输出填充 token"......" 的 Llama 34M 表现随着序列长度增加而下降,而输出填充 token 时一直到长度 14 还能保证 100% 准确率

2SUM-Transform 仅需判断两个数字之和是否满足要求,这在 Transformer 的表达能力范围内。

但问题的最后增加了一步 "对输入序列的每个数字进行随机置换",以防止模型在输入 token 上直接计算。

结果表明,使用填充 token 可以将准确率从 78.7% 提高到 93.6%

除了最终准确率,作者还研究了填充 token 的隐藏层表示。实验表明,冻结前面层的参数,只微调最后一个 Attention 层,随着可用的填充 token 数量增多,预测的准确率递增

证实了填充 token 的隐藏层表示确实包含了与下游任务相关的隐性计算

有网友怀疑,这篇论文难道在说 "思维链" 方法其实是假的吗?研究这么久的提示词工程,都白玩了。

团队表示,从理论上讲填充 token 的作用仅限于 TC0 复杂度的问题范围内

TC0 也就是可以通过一个固定深度的电路解决的计算问题,其中电路的每一层都可以并行处理,可以通过少数几层逻辑门(如 AND、OR 和 NOT 门)快速解决,也是 Transformer 在单此前向传播中能处理的计算复杂度上限。

足够长的思维链,能将 Transformer 的表达能力扩展到 TC0 之外

而且让大模型学习利用填充 token 并不容易,需要提供特定的密集监督才能收敛。

也就是说,现有的大模型不太可能直接从填充 token 方法中获益

但这并不是当前架构的内在局限性,如果在训练数据中提供足够的示范,它们应该也能从填充符号中获得类似的好处。

这项研究还引发了一个令人担心的问题:大模型有能力进行无法监控的暗中计算,对 AI 的可解释性和可控性提出了新的挑战。

换句话说,AI 可以不依赖人类经验,以人们看不见的形式自行推理

这既刺激又可怕。

最后有网友开玩笑提议,让 Llama 3 首先生成 1 千万亿点点点,就能得到 AGI 的权重了(狗头)。

论文:
arxiv.org/abs/2404.15...

参考链接:

1\][x.com/jacob_pfau/...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2Fjacob_pfau%2Fstatus%2F1783951795238441449 "https://x.com/jacob_pfau/status/1783951795238441449") \[2\][x.com/johnjnay/st...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2Fjohnjnay%2Fstatus%2F1784261779163349110 "https://x.com/johnjnay/status/1784261779163349110") --- 完 --- *版权所有,未经授权不得以任何形式转载及使用,违者必究。*

相关推荐
HeartException14 分钟前
量子计算+AI芯片:光子计算如何重构神经网络硬件生态
人工智能
摸鱼仙人~18 分钟前
Minstrel:多智能体协作生成结构化 LangGPT 提示词
人工智能·提示词
redreamSo44 分钟前
AI Daily | AI日报:DeepMind:AI设计药物开启人体试验; Cluely创始人:先传播,AI产品开发新思路; 博主檄文怒批英伟达显卡及销售问题
程序员·aigc·资讯
张晓~183399481211 小时前
数字人源码部署流程分享--- PC+小程序融合方案
javascript·小程序·矩阵·aigc·文心一言·html5
AI街潜水的八角1 小时前
深度学习图像分类数据集—濒危动物识别分类
人工智能·深度学习
轻语呢喃1 小时前
React智能前端:从零开始的识图学单词项目(一)
javascript·react.js·aigc
程序员陆通2 小时前
独立开发A/B测试实用教程
人工智能·ai编程
knowfoot2 小时前
硬核拆解!跟着公式“走”一遍,你也能彻底看懂神经网络
人工智能·神经网络
FF-Studio2 小时前
大语言模型(LLM)课程学习(Curriculum Learning)、数据课程(data curriculum)指南:从原理到实践
人工智能·python·深度学习·神经网络·机器学习·语言模型·自然语言处理
DDDDDouble2 小时前
<二>Sping-AI alibaba 入门-记忆聊天及持久化
java·人工智能