本文由 简悦 SimpRead 转码, 原文地址 www.qbitai.com
"2027 年发布 AGI 完全体"
2024-03-04 14:20:26 来源:量子位
"2027 年发布 AGI 完全体"
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
OpenAI 神秘的 Q * 计划,又有新鲜爆料。
今天凌晨,一篇 53 页 google 文档开始在网络上热传,透露 OpenAI"计划在 2027 年前实现完全 AGI"。
爆料者称,自己选择发布这篇文档是不想让马斯克继续 "造成伤害",他认为后者发起的诉讼造成了 AGI 的推迟。

△文档封面由爆料者制作,并非来自 OpenAI 官方
消息一经发布,就在网络上引起了轩然大波,甚至有人认为实现 AGI 可能不需要等那么久......

当然也有人对其真实性表示质疑,认为文档来源不明且无法证实真伪。

那么,这份被热议的爆料文档,都说了些什么呢?
文档显示,OpenAI 训练了一个 125T(万亿)参数的多模态大模型,而 Q * 就是该模型的第一个阶段。
据称,该模型就是原计划在 2025 年发布的 GPT-5,训练于 2023 年 12 月完成,智商达到了 48。
而之后的 Q* 2024 和 Q* 2025(计划发布时间分别为 2026 和 2027 年),智商被认为将达到 96 和 145。
96 分的 IQ 已经是普通的人类的水准,而 145 分则是达到了天才水平。
但坏消息是,由于推理成本过高,加上马斯克诉讼的影响,这一系列计划被推迟,相应模型的名字也换了一圈。

而按照爆料者的说法,AGI 在 GPT-4 完成训练时,也就是 2022 年 8 月就已初现端倪。
爆料者说,神经网络的参数就如同生物体的突触,参数量越大(突触数量越多),表现也会更智能。
GPT-2 有 15 亿个连接,这比老鼠的大脑(大约 100 亿个突触)还要少;而 GPT-3 有 1750 亿个连接,已经与猫接近。
2020 年,GPT-3 发布后,许多人开始推测一个大约大 600 倍、拥有百万亿参数的模型可能会有怎样性能,因为这个参数量接近了人类大脑的突触数量。
文档作者引用了英国 Open Philanthropy 学者 Lukas Finnveden(Lanrain)的观点,表示根据模型的参数量,人们将能够预测 AI 的性能。

人类大脑大约有 2×10^14(200 万亿)个突触,大致相当于神经网络中的参数数量(绿线)。
而 Lanrian 展示的外推预测显示,AI 性能似乎随着参数量一同达到了人类水平。

在假定 AI 性能确实可以根据参数量来预测,而且大约 100 万亿参数就足以与人类相当的前提下,何时出现 AGI 的问题就变成了什么时候会出现百万亿参数的 AI 模型。
而 OpenAI 开发百万亿参数模型的传闻,最早出现在在 2021 年夏天,这是奥特曼参投的 Cerebras 公司 CEO Andrew Feldman 在 Wired 杂志的一次访谈中透露的。

同年 9 月,奥特曼在 AC10 在线聚会和问答环节中,承认了该计划的存在。
不久之后,网络上又产生了 GPT-4 即是该模型的传闻,导致包括奥特曼在内的 OpenAI 员工不得不紧急辟谣。
OpenAI 的官方立场,是认为 GPT-4 具有百万亿参数的说法纯属无稽之谈,但文档作者认为其说法亦非完全属实------在他看来,GPT-4 是这个百万亿参数模型的一个子集。

爆料者还称,OpenAI 声称 GPT-4 在 2022 年 8 月份 "完成了训练",但有一个"庞大" 的多模态模型据信在 8-10 月正在接受训练。
他推测,要么是 OpenAI 撒了谎,要么是 GPT-4 完成第一轮训练后在 8 月至 10 月之间进行了额外训练,关键是这段时间与训练百万亿模型所需要的时间十分接近。
但是,2022 年 DeepMind 发布的 Chinchilla,用相对较小的参数量击败了较大参数量的模型,说明单靠参数量预测模型表现的方式不够准确。
对此,OpenAI 总裁 Greg Brockman 表示已经意识到此前认为的 Scaling Law 存在缺陷,并已采取措施进行适应。
进一步地,爆料者认为,有了新的补充,这个百万亿模型将能够达到与人类同等的水平......
而至于这份爆料的真实度,一方面看,其中引用的一些人,的确曾对 OpenAI 的行动做出过准确预测。

但另一方面,爆料这个消息的推特博主,总共就只有两条推文,而且还是在同一天发出的。

所以,这份文档中的内容可信度究竟有几分,读者朋友们还是理性吃瓜为好。
文档地址:
drive.google.com/file/d/1xlR...
版权所有,未经授权不得以任何形式转载及使用,违者必究。