智能体的主观和能动

摘要

智能体的主动性是提升智能机器的能力的关键。围绕智能体的主动性存在很多思想迷雾,本文继续我们以前的工作,试图清理这些概念上的问题。我们的讨论显示:要研究主动性,并不一定需要研究意识,仅需要研究主观和能动就可以。智能体总是具备主观的,但是要具备良好丰富的主观则不容易。另一方面,一个完全不具备能动的智能体也可以成为很有用的智能体。然而如果要让智能体进入到一个更高的境界,就必须要让智能体具备良好丰富的主观以及强大正确的能动。对智能体的主观,我们应该研究其内部结构,使得可以对齐人们的价值。要让智能体具备积极的能动,就需要建立新型的计算方式。

Keywords: 智能体,智能体的主观,智能体的能动

生命的力量,尤其是心灵的威力,就在于它本身设立矛盾,忍受矛盾,克服矛盾。--- 黑格尔

思想等等是主观的东西,做或行动是主观见之于客观的东西,都是人类特殊的能动性。这种能动性,我们名之曰"自觉的能动性",是人之所以区别于物的特点。 --- 毛泽东

1 导论

人工智能现在正在迅猛发展中,人们正在追求建造能力更高的智能机器,各种智能机器层出不穷,最近的大语言模型的高热正好为这个趋势做一个注解。我们在第2节中对若干智能机器按照能力排序做了考察。可以清楚看到,智能机器的主动性是提升人工智能的关键,而主动性应该分成两个部分,即主观和能动。

机器的主观和能动是困扰了人们很久的问题,对此问题一直以来都没有得到比较好的、大家公认的解释,有很多概念上的混乱。我们在文章 [1]中对机器的主观做过讨论。现在我们的思想有了新的发展,在这篇文章中,我们提出进一步的看法。

我们在文章 [1]中的基本想法是,机器的主动性的极端重要,但是,为了建立机器的主动性,并不需要让机器具备意识,仅需要让机器具备合适的主观。我们还提出了机器的主观的4个主要方面,即先验和考量,对外界的主动感知,对自身的觉察,以及机器的能动,并且对这些方面分别做了讨论。我们还特别讨论了机器的能动,并且指出机器的能动是主观中最重要的方面。

当前这篇文章将介绍我们目前的的思想:智能的机器都有主观,但是未必有能动;然而,如果要机器具备高级的主观,则必须有能动。我们将梳理关于主观和能动的基本思想。我们希望由此可以澄清概念上的混乱,以利于开展更深入的工作,即建立新型的计算方法使得机器获得良好的主观和积极的能动。

我们将采用智能体(人工智能体)这个名称来取代机器这个名称。这是因为我们要强调的是那种具备可以和人媲美的能力的机器。机器这个名词的含义是机械性地执行,最典型的就是图灵机。而智能体是:一个通过它的感受器从其环境中感知并且通过它的行动器作用于其环境的东西 [2]。因此,使用智能体这个名称就意味着我们更关心互动和结果,而非是否机械性执行。可见,采用智能体这个名称更符合实际,也更符合我们的目的。

什么是智能体的主观(subjectivity)?智能体的主观是指智能体所具备的内部属性和倾向,这些属性和倾向形成智能体做推理和做反应的基础。我们将讨论主观的基本性质。

什么是智能体的能动(dynamic action或者agency)?智能体的能动是指智能体可以做出自己的行动,而非仅遵循预设的规定。智能体的能动反映智能体的这样的能力:它可以根据具体情况作出针对的决定和行动,这些决定和行动可能是全新的,而不仅仅是遵循预设的规定。能动有若干名称,如:主观能动性,能动性等,我们采用能动这个名称。我们将讨论能动的基本性质,以及能动和主观的关系。

值得再次强调,我们不知道人工智能体是否有意识,是否可以有意识,但是我们确切知道它有主观,而且主观起极为关键的作用,即使有意识,意识也要通过主观起作用。当前我们不考虑人工智能体的意识,而是考虑主观。

本文的安排如下:第2节讨论一些智能体的例,特别是考察这些智能体的主观和能动;第3节讨论智能体的主观;第4节讨论智能体的能动;第5节讨论主观和能动的关系;第6节做一些总结和展望。

2 智能体的例

我们先来考察一些智能体的例。这些智能体都是复杂的,具备多个方面。我们将从主要从主观和能动的角度来考察这些智能体。

例1 (恒温器) 恒温器应该是最简单的智能体了。恒温器是这样一种智能体,它可以通过感知环境中的多种因素来控制室内温度。最简单的恒温器就是一个温度计+开关。但现在的恒温器可能是非常精密复杂的仪器,这样的恒温器除了外界温度,还要考虑了房间大小、隔热能力、人员活动、光照等因素,以确保室内的温度始终保持在预设的范围内。当室内温度超出预设范围时,恒温器会自动调节加热或制冷设备,以保持温度稳定。同时,恒温器还具有学习能力,通过记录家庭成员的作息习惯和喜好,不断优化控制策略,以提供更加智能化的温度控制服务,给人们带来舒适的生活体验。我们来考察一下在整个恒温器的谱系中,主观和能动的情况。

一个最简单的恒温器就是一个温度计+开关,当温度低于或者高于某个阈值时,就启动制冷或者取暖。这种恒温器有主观吗?智能体的主观是指它在处理信息时其内部所具备的内蕴和倾向。根据这样的理解,最简单的恒温器的确有主观,其内部设定的阈值就是。更精密复杂的恒温器就更具备主观,因为该恒温器还可以学习,其主观就不仅有控温的阈值,更有控制学习的各种倾向。这就是说,随着恒温器的精密复杂程度增加,主观的丰富程度也增大。

再考虑恒温器的能动。一个简单恒温器不具备任何能动,它的所有行动都是由一个简单程序控制,完全由其设计者规定好。对那种精密复杂的恒温器,虽然它具备学习功能,因此可以根据情况修改其内部的各种参数,但是,它的全部学习功能都是其设计者规定好的。因此,恒温器并不具备能动。

例2 (工业机械手) 工业机械手是一种能够模仿人类手臂和手的动作,执行各种工业任务的机器。工业机械手通常有底座,可移动的臂,可旋转的腕,和抓取操作物体的抓握器。我们最感兴趣的是控制工业机械手动作的软件部分,这个软件使得工业机械手具有较高的灵活性和适应性,可以应用于不同的任务和环境,具有较高的精度和速度,很高的安全性和可靠性。这个软件就是我们要考察的智能体。

当机械手开始行动前,一定会对其周围环境做考察,并且把考察结果内化到软件中,才能够顺利行动。因此,这样的软件无疑具备主观。

但是,机械手却并没有能动。机械手的全部行动都是设计者规定好的,这种规定可能是非常直接的,即机械手的行动路径完全由设计者编程做好,但也可能机械手的行动路径是由机械手智能体自己规划的,但是智能体的路径子程序则由设计者完全规定好。这其实是当前技术情况下必须的,只有如此才能保证机械手的安全性和可靠性。

例3 (登月器) 我们说的的登月器是指在登月舱中用于登陆月球时操控登月舱的自动控制装置。这个控制装置就是我们要讨论的智能体。我们可以通过一个真实的失败案例来考察这个智能体的主观和能动。

某个登月器,我们可以称为X号,它成功从地球发射,然后一路成功,进入到最后的登月阶段。但是,就在这个最后阶段坠毁。通过事后检查,发现情况是这样的:X号最初的设计,是选择降落在比较简单的平坦平原之上。到了发射前夕,鉴于月球平原已有太多探测成果,能获取的科学知识可能比较少,于是登月器主人匆忙决定降落到陨石坑。因为匆忙决定,就没有做完全周密的模拟仿真实验。当X号进入到陨石坑上空时,感知到陨石坑陡峭的壁面,X号误以为登月器出现倾斜,因而采取反倾斜措施,结果造成燃料大量消耗,进而导致燃料消耗殆尽,使得X号坠落。

这个失败案例说明,该智能体的确有主观,但是这个主观并不足够丰富,而且有错;该智能体也的确具备能动,然而能动不足。如果这个智能体的主观足够丰富,它就应该具备反省(当然是非常快速反省)它是否真的自身倾斜了,因为它还有其他的感受器,完全可以融合其他的感受器来的信息,纠偏错误感知。这个智能体的能动不足表现在,它采取的反倾斜措施是按照设计来做的,过头了,就消耗了过多燃料。这当然是设计时有漏洞。但是,这就充分表现了其能动不足。如果具备足够好的能动,完全可以根据实际情况,而非按照预设来执行,就可能避免坠毁。

由此还可以看到智能体的主观和能动的根本作用。如果是在一个熟悉的环境,一个充分研究和实验过的环境,人工赋能的程序(如X号的降落程序)可以良好工作,因为已经做了反复测试调整。但是,一个在陌生的环境中工作的智能体,如果不具备丰富正确的主观和积极灵活的能动,非常容易倾覆。

例4 ( 大语言模型 ) 大语言模型是一种使用大量的参数的神经网络,通过自监督学习或半监督学习,在大量的未标注的文本上进行训练,从而能够理解、生成、翻译和摘要化新的内容的语言模型。大语言模型使用深度学习技术和变换器模型来处理自然语言。这种智能体在多种自然语言任务上表现非常出色,表现出了这些特征:具有更强的灵活性和适应性,可以根据不同的任务和环境调整其参数和行为;具有更强的泛化能力和迁移能力,可以利用在大规模文本上预训练得到的知识,来解决特定领域或场景下的问题;具有更强的生成能力和创造力,可以根据给定的输入或提示,产生连贯、有意义、有趣甚至有创新性的文本或代码。

这种智能体的主观和能动是怎么样的呢?从智能体的外部看,人们往往会认为,这种智能体有非常强的主观和能动。 但是,当我们和这种智能体有足够多的互动后,我们就可以发现这种智能体的主观在某些方面非常丰富,但是在某些关键方面相当薄弱,而其能动则非常弱小且经常出错。

大语言模型的内部程序是经过机器学习形成的,即不是直接编制内部程序,而是通过提供数据来影响内部程序,这其实是另外一种编程方式。在使用大语言模型时,它常有令人惊艳的表现,看起来其能动很强大,还有人认为大语言模型出现了涌现,即能动涌现而出。但是,仔细考察后,可以知道它的行动来自于对训练数据的泛化。这种对数据的泛化如果可以看作是能动的话,也是非常薄弱的,这就是说,当大语言模型面对远超其训练数据的范围的问题,必然无法有效应对。

因为大语言模型是通过极大的数据训练而成的,因此其内部积累了非常丰富的知识,也就是说,当它面对一个问题时,它可以从很多角度,运用很多知识,就是说可以有非常多的倾向,从这个角度看,其主观非常丰富。但是另一方面,它的主观可以又非常薄弱。大语言模型的驱动不在其自己,而在于所谓的提示词,没有提示词,它就不能做任何事情。如果两个提示词仅有很小的差别,它也不会去主动考察和利用这种异同;如果两个提示词表面非常不同,但其实完全一样,它也不会去考察和利用异同,而是按照训练数据形成的既定的泛化做处理。

例5 ( 自动驾驶 ) 自动驾驶是指一种车辆能够在没有人类操作者的情况下,利用传感器、摄像头、雷达和人工智能等技术,自动地在道路上行驶到预定的目的地的技术。完全自动驾驶的水平是指:一辆车能够在没有人为干预的情况下,在没有为其专门改造的道路上自主安全行驶。而我们所说的那个自动驾驶智能体,就是自动驾驶系统中的控制部分。

自动驾驶能够模仿人类的视觉和判断,通过感知周围的环境,创建一个三维的模型,并根据路况和交通规则做出合适的决策。自动驾驶一般采用多模态,即有不同物理手段的感知,然后融合形成一个统一的对周围环境的觉知。那么,它的主观在融合时,起非常重要的作用。因此,自动驾驶的主观是相当丰富的。

自动驾驶的环境是公路,这是一个超级复杂的环境,几乎可以肯定,自动驾驶在路上必然会遇到它的现有程序中没有预先设定的情况。如果遇到这样的情况,如果自动驾驶没有能动,或者能动不足够,那么自动驾驶就只能放弃。也就是说,自动驾驶的能动必须要提高到一定的程度。

自动驾驶是当前智能体中其主观和能动最先进的系统。但是,离开我们的要求仍然有非常巨大的差距。怎么样来逐渐克服这个差距,正是促使我们做当前这个研究的动力。

例6 ( 数学家智能体 ) 我们不妨来设想这样一个智能体,它是专门针对某一类高难度数学问题,例如哥德巴赫猜想,而设计和建立的,它将和人类数学家一起工作,为攻克这一类数学问题努力。我们可以称这样一个智能体为数学家智能体。目前尚未有这样的智能体的完全形态出现,但是若干雏形已经存在,我们已经可以通过想象来设想数学家智能体,并且讨论其主观和能动。

数学家智能体能理解这个问题的各个重要方面(不必全部方面,其实人也做不到),能够和人类数学家一起工作。可以设想它如下:它的内部有一个容纳数学思绪的空间,数学思绪在此空间中涌动,它的内部有数学公理、定义、定理和证明的内部模型,这些模型以某种方式编码而成,就像一个巨大的包含了相应数学事实和推导的图书馆。面对问题,数学家智能体将从其内部存储库中查询解析现有的知识。它可以快速推理现有定理和证明的组合,以构建逻辑上解决查询的新推导。它也能够查询和阅读这个问题的相关的文献(不排除它能使用别的大语言模型)。而且它可以自主使用其他的数学证明软件,如Coq,来帮助证明数学定理。它具备内部奖励来驱动其工作,更接受人类数学家的约束和指导。它也可以把它所理解的数学用通常的数学方式(包括自然语言和数学公式)表达出来。它可以和人类数学家良好互动,可以接受人类数学家的广泛的语言指令(例如:是否可以再推广这个定理?),并且据此采取进一步的自主行动,也可以提示人类数学家注意某项事情(例如,这个条件比较独特,请思考其含义)。更重要的是,数学家智能体具备非常丰富的想象空间和工作空间(远超人类数学家),可以开展比人类数学家有效得多的工作,使得人类数学家可以解放出来去做更加深刻的想象和思考。我们在 [3]中设想了一种智能体,可以超越计算复杂性。数学家智能体应该具备超越计算复杂性的能力。

这样的数学家智能体目前还不存在,不过我们认为,这样的智能体在现在技术的可达范围内,如果有足够资源和努力,可以做出来。关键在于,我们急需这样的智能体,因为人正在接近身体所容许的智能的极限。如果没有这样的智能体的帮助,人们恐怕很难突破数学难关,进入新的境界。不仅数学如此,物理学也如此,其他科学也都如此。

可见,数学家智能体的主观和能动绝不平凡,远远超过了上面所有智能体的水平。

我们考察了一些智能体,从最简单的(如恒温器),到非常精密复杂的(如自动驾驶),再到目前尚不存在完全出于我们想象的(数学家智能体)。我们看到它们的能力在增加,更重要的,看到它们的主观在提高,能动也在提高,而且这正是他们能力提高的原因。

3 主观

观察和研究智能体有两种途径。一种是从外部观察其行为,这就是行为主义的进路;另一种是试图在考察其内部的机制,这就是机制主义的进路。当然,最理想的是两条进路都同时采用。只不过,这样理想的情况未必能做到。

智能体会对刺激做出相应的反应。研究者将采用行为主义进路或者机制主义进路考察这种刺激-反应的情况,并且依据这种刺激-反应的情况来了解智能体的诸多方面,如判断智能体的能力,智能体的倾向,等等。研究者必然会观察到这样的现象,即智能体表现出某些行为的倾向,如果深入智能体内部,也会看到某些形成这种倾向的内蕴或者机制。根据这样的理解,我们做出如下的定义。

智能体的主观: 智能体的主观是指它在和环境互动时,它的行动所依赖的其内部所具备的独特内蕴和倾向。我们将依据关于智能体的主观的若干重要的性质来考察主观,这些性质为:1)来源,2)丰富性,3)正确性,4)适应性,5)内部层次结构。■

很多人认为要形成这种倾向,即形成主观,就需要人工智能体具备意识。他们认为人和具有一定智能的生物都具备意识,而且意识是这些生物智能体形成主观的基础,意识和主观不可分。我们认为不应该这样看。我们还不具备足够的知识来搞清楚究竟什么是意识,更遑论在人工智能体中建立意识。即使以后的人工智能体中有了意识,也还是会先形成内部的倾向,然后用这种倾向去影响行动,也就是说,意识也要通过主观起作用。意识是感知和体验,而主观是行动的倾向,对人工智能体而言,主观并不虚无缥缈,而是可以对它展开工作的。因此,我们应该考虑智能体的主观,而非意识。

主观作为智能体的内部倾向,其具体的构成并不简单。例如,可以是某些参数(如恒温器),也可以说某些特定的函数/子程序(如机械手),也可能是某种特定的结构(如登月器),也可能是这些的组合,以及更复杂的构成(如大语言模型中的超大规模的参数的组合)。我们目前还难以用定量的方法来描述主观。一种通过现象学的方法可能有助于描述主观,见 [4],这个方向仍然在研究的最初期。描述和测度智能体的主观的方法,将对人工智能起非常重要的作用。

我们可以讨论智能体的基本性质:来源,丰富性,正确性,适应性和内部层次结构。

我们先来考察主观的来源。智能体的主观可以来自于其设计者/编程者的设计和编程(如机械手),也可以来自于其经验和学习(如大语言模型),也可以是两者的结合。如果智能体的主观的主要部分来自于智能体的学习和经验,这样的主观听起来好像更符合我们对主观的理解。而如果智能体的主观完全来自于设计/编程,好像就和我们对于主观的理解有所冲突:怎么一个由外部规定的倾向可以称为主观?我们认为这不是问题。我们真正关心的是,一个智能体内部是否的确具备某种独特的倾向和内蕴。在智能体和环境互动的时候,起作用的那个东西就是这个倾向和内蕴,即使它们来自于外部的强行规定和灌输。当然,完全由外部规定和灌输的主观,必然是薄弱的。但是,无可怀疑,智能体的确具备主观,而且主观起非常重要的作用。因此,我们提出如下论题。

论题(智能体必具备主观) 任何智能体都具备主观。可能有些智能体的主观非常单薄,但是仍然存在,不为零。可能有的智能体的主观由设计者设计和灌输,可能有的智能体的主观主要由其经验/学习形成,可能有的智能体的主观可以从外部调控,可能有的智能体的主观对外界封闭,但智能体都具备其主观。

既然智能体必然具备主观,我们需要考虑的,就再不是有无,而是性质。我们继续考察智能体的主观的丰富性,正确性,适应性,和内部层次结构。

先看丰富性。最简单的恒温器的主观非常薄弱,其实它已经退化成了简单程序,即低于某阈值就启动制暖,高于某阈值就启动制冷。但是,作为极端情况,根据我们对智能体的主观的定义,恒温器又的确具备主观。这是一个极端,主观非常薄弱,接近于没有。但是,现在的恒温器也复杂起来了,那种可以学习的恒温器的主观就要丰富很多。

登月器的主观已经很丰富了。登月器的主观起非常重要的作用,X号就是因为其主观不符合事实,而造成了登月失败。可以注意到,登月器的主观几乎全部是设计和编程形成的。如果让登月器有足够的经验/学习来帮助形成正确的主观,登月器的能力和安全应该得到提高。同样的,自动驾驶的主观很丰富,但是,目前的自动驾驶所具备的主观仍然不够丰富。数学家智能体必须具备极其丰富的主观,否则不可能进行工作,更不可能取得数学上的进展。

再看正确性。机械手和登月器的主观都是设计者赋予的,而且设计者并不让它们积累自己的经验。但是,如果从正确性来看,它们的主观具备很好的正确性。当然,这需要设计者的对环境预期符合它们工作的真实环境,如果两者不符合,就有可能产生颠覆性的恶果(如X号登月器)。

主观的正确性对有的智能体是生死攸关的,大语言模型就是这种。这样的智能体需要对齐人类的价值观,否则就会带来极大的危险,这就是对这种智能体的主观的正确性的要求。从目前的技术和理论来看,离开满足这个要求还有非常长的路要走。首先,对大语言模型,我们必须要搞清楚其主观的构成,然后,要搞清楚这些主观的构成产生什么结果,并且还需要搞清楚通过什么方式去影响其主观的构成。只有这样,才有可能形成具备良好、丰富和正确的主观。我们还需要极大的努力才能达到。

接着看适应性。智能体的环境可以改变,当环境改变时,智能体的主观也需要调整,如果不能调整,就可能出现危险。这就是智能体主观的适应性。就是说,当环境改变时,智能体的主观可能失去正确性,这就需要智能体能够自我调整,使得重新获得主观的正确性。例如,X号对于某个月面环境是适应的,如果在这种月面环境里面登月,就不会出现问题。但是当月面环境改变了,X号不具备适应能力,结果就是颠覆性的。

智能体的主观的内部结构。虽然目前我们并不完全清楚主观的构成,也就很难谈上分析主观的内部结构。有一个研究方向,是完全从现象学的角度看意识,这个方向里面的技术,如范畴,是很有希望用于考察主观的内部结构的。建立一种能够分析主观的内部结构的工具,是亟待解决的问题。现在的大语言模型,就非常紧缺这样的工具。

4 能动

智能体和其环境互动,自然会有所行动。研究者观察和研究这些行动有两个途径,一个是从外部看,一个是从内部看。人们如果从智能体外部的某种角度看,智能体看起来具备很强能力,例如机械手,就往往会认为智能体有智能。当然,人们也可以看得更深入一些,如:看到某些行动是常规的,但是某些行动是出人意料的,是非常规的,但是很有效,例如大语言模型,就更会认为智能体具备智能。如果能够深入到智能体内部,就有可能看到,智能体的有些行动是触发某个已经设定的程序,然后执行程序形成的,有的则可能是智能体做出自己的行动,而非遵循预设的程序,如自动驾驶,就会认为智能体的确具备能动。

因此我们做一个定义。

智能体的能动: 智能体的能动是指智能体的这种能力:可以根据智能体的内外现状,根据智能体的主观,决定采取并非预设的,超越预设的行动。智能体的能动的基本性质为:1)强大性,2)正确性,3)适应性。

能动的强大表现在:能够在困难的条件下行动,并且仅需要尽可能少的资源。能动的正确表现在:采取正确的行动,至少是采取正确的行动的概率更大。能动的适应性表现在:当环境改变时,智能体的能动可能失去正确性,但是它可以调整,使得其能动重新获得正确性。

我们怎么从外部或者从内部来观察智能体的能动呢?从内部看,就是看智能体是触发某个已经设定的程序,然后执行程序形成的,还是并没有预设的程序,而由智能体做出自己的行动。从外部不可能看得这么清楚,但是,也是可以看出的。那就是观察智能体是否可以产生并非常规的,使得观察者感到意外的,但是又是符合现状的,产生了良好效果的行为。可以细究刺激-主观-反应的链条,观察这个链条中是否有这样的行为:反应不是完全根据预设的安排来形成的,而是智能体根据当时的具体情况,根据自己的主观,而采取的正确的行动。智能体仅能按照预设来行动,和可以突破预设来行动,是一个非常重要的分别,决定智能体是否具备能动。

现在我们来考察前面提到的例中的那些智能体的能动。

首先,智能体可以不具备能动,即能动为零。例如工业机械手,它的一切行动都是预先规定好的,设计好的,但是它仍然是很好的智能体。这样的智能体的表现对外部观察者来说也足以当得起智能体的名称。不过它却完全不具备能动,从外部看和从内部看都如此。

但是,不具备能动的智能体,其能力必然极度受限。例如登月器,如果它的一切行动都是预设好的,那么,它就只能在一切都经过周密测试的环境中才有可能成功登月。X号就是因为不具备良好的能动,但是又处于一个没有经过周密测试的环境,而导致失败。

如果说登月器还有可能在并不具备能动的情况下仍然能够成功登月,那么自动驾驶就必须具备能动。公路上的驾驶环境是超级复杂的,无论怎么周密测试,也不可能保证自动驾驶不会遇到某个没有被测试到的环境,因此要到达所谓L5级别,自动驾驶就必须具备强大正确的能动。

那么大语言模型是否具备能动?我们可以从内外两方面来考察。从外部看,大语言模型有非常令人惊艳的表现。例如,给它一些提示词,它可以做出一首动人的诗,而且从来没有人教过大语言模型这样的诗。用我们前面列出的标准看,我们自然可以认为大语言模型具备能动。从内部看,就更复杂一些。大语言模型是用一组大数据训练出来的,并不是人工编程实现的。然后,当大语言模型运行时,它仍然是一个程序(只不过这个程序不是人工编程,而是大数据训练形成),也就是说它的一切行动都是已经规定在这个程序中了,因此就不可能产生能动。但是,大语言模型又可以写诗。这是非常令人困惑的事情,也是非常有争议的事情。这里,我们可以提供一个解释。一切都在泛化中。当用大数据做训练时,就形成了一个很庞大的程序,这个程序可以对训练集中的数据做正确的计算,但是对不在训练集中的数据,就有可能也做正确的计算,虽然这些数据并不在训练集中。这就是泛化。就是说,训练可以使得程序正确计算某些没有在训练集中的数据。如果是这样的情况,大语言模型能做诗,就可以用泛化来解释。当然,要能做出有意义的良好的泛化,并不容易,需要训练集和学习过程达到一些严苛的要求。但是,如果我们能确定大语言模型的令人惊艳的能力来自于泛化时,我们也就知道大语言模型的能动很弱。事实上也很容易找到一些情况,使得大语言模型不具备强大能动这个事实凸显出来。有人做过这样的测试:先问一个问题,大语言模型通常会给出合适的答复,然后用答复中的某句话再问,这时,大语言模型就会陷入很糟糕的状态,道歉,胡说,等等。也就是说,这样的做法,就形成了这样一个数据:在训练集之外,而且和训练集非常不同,使得大语言模型不能正确计算这个数据。世界超级复杂,训练集可以正确泛化到的数据仅是小部分。

当然,究竟大语言模型究竟在干什么,是否其能力仅来自于泛化,是目前还没有搞清楚的事情,还有待大量的研究。我们曾经的一个研究,可以提供一种视角来帮助理解 [5]。

数学家智能体尚不存在,我们只能通过想象来讨论。首先可以明确,数学家智能体必须具备强大的能动,否则绝对不可能在数学研究上获得好的进展。在前面对数学家智能体的描述中,我们设想的智能体可以帮助人类数学家克服困局,冲击世纪数学难题。这样的智能体不能仅仅停留在一些辅助方面,而必须在其内部形成真正的数学洞见,因此,它就不能只从训练集泛化,它必须要能够做出完全超越常规常识的思想。

根据如上的讨论,我们看到如下论题。

论题(智能体的能动) 智能体可以不具备能动,即能动为零,也即智能体的一切行动都是预先规定好的,设计好的,即使其行动是非常复杂的。这样的智能体仍然可以是很好的智能体,其表现对外行来说足以当得起智能体的这个名称。然而,如果需要智能体可以在复杂情况完成复杂任务,特别是需要用尽量少的资源来完成复杂任务,那样就需要智能体能够不依赖预先设定的规定,产生合适的决定和行动,即正确而且强大的能动,否则无法完成这样的任务。

智能体的能动的正确性和安全性,怎么才能获得保障?这就需要由智能体的主观来加以约束。

如果说主观可以来自于外部设计和灌输,能动就只能来自于智能体本身。这里就有了本质的困难。如果智能体里面的是图灵计算程序,那么其一切行动都为计算程序规定好了,这样,如果从智能体内部看,就会发现智能体的行动都是规定好的,因此不可能真正具备能动。所以,如果要智能体具备强大正确的能动,应该思考新的计算方法。

5 主观和能动的关系

智能体的主观是指智能体所具备的内部属性和倾向,智能体的能动是指智能体可以做出自己的行动,而非仅遵循预设的规定。这两者是有区别的,而且这样的区别也是很有意义的。然而,智能体的主观和能动有非常紧密的联系。人们是充分认识到此点的,事实上人们很多时候把这两者连在一起合称为主观能动性。我们现在来看这两者的关系。

主观对能动的作用:

1)主观为能动提供必要条件,例如,如果智能体要在3维空间中自如活动,就必须要具备在智能体中形成丰富而准确的3维空间的主观,只有在此基础上,智能体才有可能形成在3维空间中活动的能动。

2)主观可以促使能动的产生,是能动产生的动力源之一。事实上,如果没有驱动,智能体不会超越规定而形成能动。例如,自动驾驶在面临未知情况而且既有的方式都行不通时,它可以选择放弃或者试图找到新的方法,只有具备那种很积极的主观,才会选择不放弃。

3)能动的形成需要主观的参与和指导。还是以自动驾驶为例,在路上行驶,必然会有若干相互冲突的因素同时存在,怎么取舍,往往需要做出能动,完全按照预定规则行事是不可行的,而这时,智能体的主观就起关键作用。能动的正确性和安全性要由主观来指导和保障。

4)要具备能动,就需要主观里面有这样的倾向:在合适的时候,应该产生新的行动,而非仅仅遵循已有规则。因此,把能动看成主观的一部分也是合理的,不过分开这两者更好一些。

能动对主观的作用:

1)存在那种没有能动的智能体,但是这种智能体的主观必然是外界强行灌输的,肯定比较贫乏。因此,如果主观要丰富,就必须具备能动。

2)如果要智能体的主观具备良好的适应性,智能体的能动就是必须的,因为唯有如此,智能体才能根据环境的情况对自己的主观做调整。

3)正确的主观往往需要能动,因为正确性往往是适应的结果,而适应就需要能动。

总之,如果智能体要有能动,就需要它有丰富的主观,只有如此,能动才能获得支撑。反过来,如果智能体要具备丰富的主观,它就必须具备能动。主观和能动,的确是可以当成一体来看,即主观能动性。但是,把它们切分开,然后再研究它们的关系,就更好一些,这样可以帮助我们真正深入进去。

6 总结和展望

我们相信,至此,我们已经基本上理清了围绕智能体的主动性的诸多概念上的混淆。通过前面的讨论,我们明确了最主要的宗旨:日益强大的智能体需要具备更高的主动性,主动性归结为主观和能动,具备良好的主观和积极的能动的智能体能更有效地应对复杂陌生的环境,这样的环境催生和促进愈加丰富的主观和更加强大的能动。

我们要强调两点:1)对于人工智能体来讲,应该区分主观和能动,它们有密切的联系,但是也有明显的区别。理解这个区别,可以帮助我们理清思路和更好开发技术。2)对人工智能体,不应强调意识,而应该强调主观,意识可以留待以后。

由此可知智能体的发展方向将是:发展出这样的智能体,它具备丰富正确的主观和积极正确的能动。对这样的智能体的要求,将会越来越大,越来越高级。这就要求我们深入研究主观和能动,研究它们的基本性质。

主观是智能体内部的倾向。可以由设计者来制定和灌输,也可以由智能体通过学习和经验来获取,也可以结合这两种。智能体的主观是分布式地隐藏于智能体的诸多内部结构里面,并没有被分离出来,而且很难被分离出来。对于智能体的主观,我们应该找到方法来描述和测度,进而调整,这种方法目前尚缺。当前的一个亟需解决的问题是:研究智能体的主观的结构,并且找到让主观和人类价值对齐的方法。这是一项困难的工作,但是,目前已经有了一些先期工作,特别是依据现象学的研究进路 [4]。我们应该利用这条进路,也应该探索新的进路。

智能体的能动是更困难的课题。要研究智能体的能动,就必须面临这个极其尖锐和突出的矛盾:图灵机是完全确定和基于固定规则的,怎么可能产生强大的能动(能动就是要超越预设的规则)?这个矛盾从计算时代的一开始就存在了。图灵在刚刚导入图灵机的两年后就导入了所谓的神谕机,就是试图对此有所突破。但是一直到现在,这个问题仍然非常尖锐存在。如果不能在这个问题上有所前进,我们就不会有重大突破。最近我们试图导入一种新的计算方式,希望可以利用这种方式在智能体中建立一种结构,使用这种结构,积极的能动将成为可能。我们将在后续的文章中讨论这样的计算方式。

致谢 :在思考智能体的主观和能动的长久过程中,我在一些微信群中和群友的互动,对我思绪的活跃有重要帮助。在此对这些微信群的参与者们致谢。

备注 :在写作本文时,我使用了GPT(GPT4.0,Microsoft Bing,Claude 2)做为辅助工具。主要的用法为:对一些已经是公知事实,或者接近公知事实的部分,用GPT帮助,如我准备写"自动驾驶"时,输入"请介绍自动驾驶"到GPT,GPT将输出一段文字,我则复制这段文字,加以删减修改。这样提高了一些效率。对GPT的使用,仅止于此,其余部分,完全自己手工写作。如果有类似于数学家智能体那样的工具,就不必完全自己手工写作,仅需提供思路和要点给工具。

References

|-------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| [1] | C. Xiong, "Some Discussions on Subjectivity of Machine and its Function - Contributions to ICIS 2020," in International Conference of Intelligence Science 2020, West Bengal, India, 2020. |
| [2] | P. N. Stuart Russell, Artificial Intelligence: A Modern Approach, 3rd ed., PRENTICE HALL. |
| [3] | C. Xiong, "Exceeding Computational Complexity -- Trial-and-Error, Dynamic Action and Intelligence," *arxiv.org 2301.03384,*2022. |
| [4] | C. M. Signorelli, Q. Wang and B. Coecke, "Reasoning about conscious experience with axiomatic and graphical mathematics," *arxiv.org 2106.16061,*2021. |
| [5] | C. Xiong, "What Really is Deep Learning Doing?," *arxiv.org 1711.03577,*2017. |