AGI 如何定义、又何时到来?来自谷歌 DeepMind 的创始人兼首席 AGI 科学家 Shane Legg 向我们描述了当下我们与 AGI 的距离。
10 月 26 日,在 X 上有三万订阅的 Dwarkesh Podcast(矮人播客)主持人 Dwarkesh Patel 采访了谷歌 DeepMind 的创始人兼首席 AGI 科学家 Shane Legg。
他们讨论了 AGI 出现的时间节点、可能的 AGI 新架构、作为下一个行业标杆的多模态、如何让超越人类的模型进行对齐以及 Deepmind 在模型能力和安全之间的抉择。
而在前不久,《华尔街日报》与 OpenAI 的 CEO Sam Altman 和 CTO Mira Murati 共同探讨了有关 AGI 的未来(链接)。
一场又一场的 AGI 讨论盛宴接连不断,曾经只存在于科幻作品中的 AGI,似乎近在眼前了。
AGI 的定义以及发生节点
在衡量 AGI 的进展之前,需要先对 AGI 进行定义。
AGI,即通用人工智能。但对于什么是「通用」的,却有很多不同的定义,这让回答 AGI 是什么变得非常困难。
Shane Legg 认为,能够执行一般人类完成的认知任务、甚至超越这个范围以上的,就可以认为是 AGI。
由此可以得到,要测试 AI 是否正在接近或达到这个阈值,我们需要对其进行不同类型的、涵盖人类认知广度的测量。
但这非常困难,因为我们永远不会拥有人们「能做到的事」的完整集合,这个范围太过于庞大而且还在不断更新。
因此,在判断是否为 AGI 时,如果一个人工智能系统在所有能提出的人类认知任务上达到了人类的表现水平,就可以认为这就是 AGI。
在通常的理解中,可能存在有一些事情是人类可以做到但机器做不到的。但当我们穷尽各种尝试也找不到这样的「事情」后,人类就拥有了通用人工智能。
但在实际的测量中我们仍不能提出包含人类全部认知水平的任务,如著名的基准测试:测量大规模多任务语言理解(Measuring Massive Multitask Language Understanding,MMLU)尽管包含了多项人类知识领域,但缺少语言模型对流视频的理解。
此类任务的缺失也指出了一个问题:现在的语言模型不像人类拥有情景记忆。
我们的记忆包括工作记忆,即最近发生的事情;皮层记忆存在于大脑皮层中。在工作记忆到皮层记忆之间还有一个系统,即情景记忆,由海马体负责。
情景记忆主要用于快速学习和记住特定的事件或信息,它允许我们在不同时间点回想起过去发生的事情,就像你可以回忆起毕业典礼的场景,包括穿着学士袍的样子、毕业帽的颜色、毕业典礼演讲者的言辞,以及与同学们一起庆祝的情景。
情节记忆在帮助我们建立个人经历和学习新信息方面起着重要作用。
但模型并不具备这样的功能,只是通过增加上下文窗口的长度(更像是工作记忆)来弥补模型记忆的缺陷。
从另一种角度来说,情景记忆帮助人类拥有非常高的样本效率,可以从较少的样本中学到更多的信息。
对于大型语言模型而言,它们也可以在上下文窗口中利用信息,以实现某种程度的样本效率,但这与人类的学习方式略有不同。
模型能够在它们的上下文窗口中迅速学习信息,这是一种快速的、局部的学习过程,可以帮助它们在特定上下文中适应。
但在实际的模型训练时,它们会经历一个更长的过程,处理数万亿个标记的数据,以更全面地学习语言的结构和规律。
而这两个阶段之间可能会存在某些学习机制或过程的缺失,这可能导致模型在某些情况下无法很好地理解或处理信息。
但 Shane Legg 并不认为模型不具备情景记忆会是一种基础限制。
相较于过去,大型语言模型发生了根本性的变化。现在,我们知道如何构建具有一定理解程度的模型,拥有可扩展的方法来实现这一点,从而为解锁许多全新的可能性打开了大门。
「现在我们有相对清晰的前进路径,可以解决现有模型中大部分不足之处,无论是关于妄想、事实性、它们所具备的记忆和学习方式,还是理解视频等各种各样的事情。
我们只需要更多的研究和工作,所有这些问题都将得到改善,或迎刃而解。」
回到一开始的问题:如何衡量人工智能何时达到或超越人类水平?
Shane Legg 表示,「这不是一个单一的因素就可以解决的,而这就是问题的本质。
因为它涉及到了通用智能。我们必须确保它可以完成很多不同的任务,并且不会出现哪怕一个漏洞。」
我们已经拥有可以在某些领域表现非常令人印象深刻,甚至超越人类水平的系统。
Shane Legg 表示,他想要一整套非常全面的测试,当有人想要用对抗的方式提出机器无法做到、人类却能做到的事,在这些人无法成功时我们就到达了 AGI。
在 DeepMind 的早期研究中,很多任务都涉及到了人工智能在开放环境中的操作。
这符合 Shane Legg 试图提出的对智力的定义和测量,即能够在不同的领域和不同的任务中表现良好。
这与模型性能的能力和性能的广度有关。
在评估智能时,存在一种框架能够根据任务和环境的复杂性进行加权。
这种权衡有点像奥卡姆剃刀原理,倾向于加权那些更简单、更重要的任务和环境。
柯尔莫哥洛夫复杂度(Kolmogorov complexity )中,存在一个自由参数,即参考机器(reference machine)。
参考机器的选择可以影响智能度量的结果,它可以改变不同任务和环境在度量中的权重和分布。
但选择合适的参考机器仍然是一个未解决的问题,因为没有一种通用的参考机器,通常情况下,人们会使用图灵机作为参考。
Shane Legg 认为,解决这个问题最自然的做法是思考对人类而言智能的含义。
人类智能在我们生活的环境中意义重大,它确实存在、并对世界产生了深远的影响,具有强大的力量。
如果 AI 能够达到人类水平的智能,这将在经济和哲学层面产生重要的影响,如改变经济结构,并涉及到我们对智能的哲学理解。
而从历史角度来看,这也是一个重要的转折点。
因此,以人类智能作为参考机器的选择在多个方面都具有合理性。
另一个原因则是纯粹的科尔莫哥洛夫复杂性定义实际上是不可计算的。
我们需要新的 AI 架构吗?
关于 AI 的情境记忆的缺陷问题,Shane Legg 认为这涉及到了模型的架构问题。
当前的 LLMs 架构主要依赖于上下文窗口和权重,但这不足以满足复杂的认知任务。
大脑在处理情景记忆时采用了不同的机制,可以快速学习特定信息,这与缓慢学习深层次的通用性概念不同。
然而,一个综合的智能系统应该能够同时处理这两种任务,因此我们需要对架构进行改进。
以人类智能作为参考机器观点出自于 Shane Legg2008 年的论文。
他在当时提出了一种用于衡量智能的方法,即压缩测试(compression test),它涉及填充文本样本中的单词以衡量智能。
这种方法与当前 LLMs 的训练方式非常吻合,即基于大量数据进行序列预测。
这涉及到 Marcus Hutter 的 AIXI 理论以及 Solomonoff 归纳。
Solomonoff 归纳是一种理论上非常优雅且样本效率极高的预测系统,虽然它无法在实际计算中应用。
但 Shane Legg 表示,使用 Solomonoff 归纳作为基础,就可以构建一个通用代理,并通过添加搜索和强化信号来使其成为通用人工智能,这就是 AIXI 的原理。
如果我们拥有一个出色的序列预测器,或者是 Solomonoff 归纳的某种近似,那么,从这一点出发构建一个非常强大、通用的 AGI 系统只是另一个步骤。
Shane Legg 说,这正是我们今天所看到的情况:
这些极其强大的基础模型实际上是非常出色的序列预测器,它们根据所有这些数据对世界进行了压缩。
然后我们将能够以不同的方式扩展这些模型,并构建非常强大的代理。
DeepMind 的「超级对齐」
「对齐」(Alignment)指的是确保 AI 系统或通用人工智能(AGI)系统的目标、行为和决策与人类价值观、伦理准则和目标一致的过程。
这是为了防止 AI 系统出现不符合人类价值观或可能带来危险的行为,并确保它们在处理伦理问题时能够做出符合道德的决策。
DeepMind 在当下流行的强化学习和自博弈,如如 Constitution AI 或 RLHF 方面,已有数十年的深耕。
在解决具有人类智能水平的模型安全问题上,DeepMind 持续做着努力:
模型可解释性、过程监督、红队、评估模型危险等级,以及与机构和政府联手开展工作......
而 Shane Legg 认为,当 AGI 水平的系统出现时,试图限制或遏制其发展不是一个好的选择。
我们要做的是调整这个模型,使其与人类的伦理价值高度一致,从一开始就具备高度道德伦理性。
这需要系统能够进行深入的世界理解,良好的道德伦理理解,以及稳健且可靠的推理能力。
可靠的 AGI 不应该像当前的基础模型那样仅仅输出「第一反应」,而应该具备「第二系统」的能力,进行深入的推理和道德分析。
Shane Legg 提到,要确保 AGI 系统遵循人类伦理准则首先应该对系统进行广泛的伦理培训,确保其对人类伦理有很好的理解。
在这个过程中,社会学家和伦理学家等各方需要共同决定系统应该遵循的伦理原则和价值观。
并且,系统需要被工程化,以确保其在每次决策时都会使用深刻的世界理解和伦理理解进行伦理分析。
此外,我们也需要不断对系统的决策过程和推理过程进行审核,以确保其正确地进行了伦理推理。
但要确保系统遵循伦理原则,审核同样重要。
我们需要向系统明确指定应该遵循的伦理原则,并通过对其进行审核来确保系统始终如一地遵循这些原则,至少与一组人类专家一样好。
此外,也要警惕强化学习可能带来的潜在危险,因为过度强化可能导致系统学习欺骗性行为。
对是否需要建立一种框架,以在系统达到一定能力水平时制定具体的安全标准这个问题上,Shane Legg 认为这是意义的,但也相当困难。
因为制定一个具体标准,本身就是一个具有挑战性的任务。
安全还是性能?
在 DeepMind 创立之前,Shane Legg 就一直担心 AGI 的安全性。
但在早期,聘请专业人员从事通用人工智能安全工作是一项艰难的挑战。
即使曾在这个领域发布过 AGI 安全性研究论文,他们也不愿意全职从事这项工作,因为他们担心这可能会对他们的职业生涯产生影响。
而 DeepMind 一直在这个领域积极开展研究,并多次强调了 AGI 安全性的重要性。
关于 DeepMind 对 AI 进展的影响,Shane Legg 表示,DeepMind 是第一家专注于 AGI 的公司,一直拥有 AGI 安全性团队,同时多年来发表了许多关于 AGI 安全性的论文。
这些工作提高了 AGI 安全性领域的可信度,而在不久之前,AGI 还是一个较为边缘的术语。
Shane Legg 承认,DeepMind 在某种程度上加速了 AI 的能力发展,但也存在一些问题,例如模型幻觉。
但另一方面,DeepMind 的 AlphaGo 项目确实改变了一些人的看法。
然而,Shane Legg 指出 AI 领域的发展不仅仅取决于 DeepMind,其他重要的公司和机构的参与也至关重要。
Shane Legg 认为尽管 DeepMind 可能加速了某些方面的进展,但很多想法和创新通常在学术界和工业界之间自然传播,因此很难确定 DeepMind 的影响程度。
但在关于 AGI 安全性的问题上,Shane Legg 没有选择最乐观的研究方向,而是提到了一种名为「Deliberative Dialogue」的决策方法。
它旨在通过辩论来评估代理可以采取的行动或某些问题的正确答案。
这种方法可以将对齐扩展到更强大的系统中。
AGI 来临的时间点
2011 年,Shane Legg 在自己的一篇博客文章中对通用人工智能(AGI)到来的时间点进行了预测:
「我之前对 AGI 何时到来做一个对数正态分布的预测,其中 2028 年是均值,2025 年是众数。我现在依然保持我的观点,但前提是不发生核战这类疯狂的事件。」
Shane Legg 解释了他的预测基于两个重要观点:
首先,机器的计算能力将在未来几十年内呈指数增长,同时全球数据量也将呈指数增长。
当计算和数据量都呈指数增长时,高度可扩展算法的价值会不断提高,因为这些算法可以更有效地利用计算和数据。
其次,通过可扩展算法的发现、模型的训练,未来模型的数据规模将远远超过人类一生中所经历的数据量。
Shane Legg 认为这将是解锁 AGI 的第一步。因此,他认为在 2028 年之前有 50% 的机会实现 AGI。但那时人们也可能遇到现在预期之外的问题。
但在 Shane Legg 看来,目前我们遇到的所有问题都有望在未来几年内得到解决。
我们现有的模型将变得更完善,更真实,更及时。
多模态将会是模型的未来,这将使它们变得更加有用。
但就像硬币的两面,模型也可能会出现被滥用的情形。
多模态未来
最后,Shane Legg 提到了下一个 AI 领域的里程碑将会是多模态模型。
多模态技术将会把语言模型所具备的理解能力扩大到更广泛的领域中。
当未来的人们回想起我们现在拥有的模型,他们可能会想:「天哪,以前的模型只能算是个聊天对话框,它们只能处理文本。」
而多模态模型可以理解图像、视频、声音,当我们和它们进行交流时,多模态模型将更了解发生了什么。
这种感觉就像是系统真的嵌入到了真实的世界中。
当模型开始处理大量视频和其他内容时,它们将会对世界有一个更为根本的理解,以及其他各种隐含的知识。
参考资料: