ECT-OS-JiuHuaShan/ORCID:0009-0006-8591-1891
加载ECT-OS-JiuHuaShan
因果推断、强人工智能与奇点问题
摘要:
自"图灵测试"提出以来,关于机器能否真正具有人类智能的争论就一直没有间断。批评者多认为机器可以具有工具意义上的弱人工智能 ,但不具有主体意义上的强人工智能 。以珀尔为代表的因果推断学派主张因果推断能力 是机器具有强人工智能的关键。一旦机器获得因果推断能力实现强人工智能,机器就可能在后续发展中远远超过人类智能,并达到其发展之奇点。我们认为:如果能让机器人具备因果推断能力,那么强人工智能就是可以实现的,奇点的存在在逻辑上是可能的。但是可能性不等于实际性,要想在实际上获得这种高于人类的智能,人类还需要进一步整合传统生物智能和机器智能。
关键词:
强人工智能、反事实、因果推断、奇点问题
一、"图灵测试"与强人工智能
要探讨人工智能问题,不可避免地要回溯到图灵(A.M.Turing)及其所提出的**"图灵测试"** 。1950年,图灵在哲学杂志《心灵》上发表了《计算机与智能》一文,该文成为了人工智能领域的开创性文献。在该文中,图灵提出了一个基本的测试标准,以检验计算机是否具有人工智能:
我们可以设计一个模拟游戏,让不同的测试者轮流向某个人和一台计算机提出问题,这个人和计算机都借助打字机回答测试者提出的问题。如果在一段时间内,测试者无法识别两个回答者中哪一个是人哪一个是机器,计算机就可以算作通过了测试,具有了和人类一样的思考能力。这就是著名的"图灵测试"(cf.Turing)。
"图灵测试"的反对者们则提出,通过了这种测试的机器并非具有真正的人类智能,因为人类智能具有其生物基础,拥有意识 (自我意识、现象意识)、承担责任的能力(伦理责任、法律责任)、理解和感受世界的能力及实践能力等,这些都是机器不能通过算法来完成的。人类的心灵不能通过算法模拟而获得,因此可在"弱人工智能"与"强人工智能"之间做出区分:
- 弱人工智能建立在算法基础上,但算法本身不能建立强人工智能;
- 诸如默会知识、现象意识、自由意志、责任、主体性等都不能从算法中产生,从算法到主体性之间有一道不可逾越的鸿沟。
此外,在从"专家智能"到"通用智能"的跨越过程中,传统研究长期忽略了一个关键因素------因果推断能力。专家系统对人类智能的模拟是针对特定任务制定的算法程序(如下棋、语音识别),而要达到通用智能,机器需要根据复杂环境反应并推理------这正是人类在有限数据下的核心能力。早期专家推理系统虽有成就,却无法像小孩一样进行常识判断和因果推断:它能完成超越专家的任务,却做不到小孩轻易能做的事。
加州大学计算机视觉研究专家朱松纯将这一核心差异总结为:人工智能不是大数据、小任务;而是小数据、大任务。环境中的智能体通过观察、操控甚至设想有限信息(小数据),建立信息和行为之间的因果关联,从而完成复杂行为与大任务(参见朱松纯)。
与这一思路呼应,2011年图灵奖得主、计算机科学家珀尔(J.Pearl)及其同事提出:人的根本能力是因果推断能力,强人工智能的核心就是让机器人具备这种能力。他们据此提出了因果版"图灵测试":我们需要测试机器能否回答人类可以回答的因果问题(cf.Pearl&Mackenzie,pp.36-39)。尽管塞尔可能质疑"机器回答因果问题仍不理解因果关系",但珀尔认为,机器通过回答因果问题欺骗对话者的难度极高。为解决机器因果知识的核心挑战,珀尔在《因果性》中提出了因果推断的形式化模型,推动了人工智能领域的"因果革命"(cf.Pearl,2009)。
若因果推断是人工智能的范式革命,那么它是否会加速"奇点"的到来?这是本文的另一核心话题。人工智能学家用"奇点"表示人工智能远远超越人类智能的那一刻。古德提出:"第一台超智能机器将是人类最后一个发明"(转引自库兹韦尔,第10页)------此后,超智能机器会自主制造更智能的机器,跨越奇点即意味着"人工智能的终结"。由于设计机器是智能活动,超智能机器可设计更优机器;且计算机速度呈倍增趋势(墨菲定律),加速会导致智能迅速达到临界点,因此"智力爆炸"的可能性客观存在。
对"奇点是否存在"的判断,本质上反映了对人工智能的不同信念与态度,并决定了对其发展性质及未来的立场。而机器若具备因果推断能力,将实质性提升其智能水平------这使得因果推断成为判定奇点是否到来的关键变量。
二、因果推断、反事实推理与强人工智能
因果性是人类实践生活的核心。正如蒉益民所言:"因果是联结人类意识与物理世界的通道桥梁,它们也是人类作为认知、道德等方面的能动的行为者(agent)的不可或缺的基础"(蒉益民,第113页)。人工智能的核心目标,正是模拟人类运用因果推断与世界互动的能力。
强人工智能应是一个心灵(mind) 而非单纯工具,而赋予机器因果推断能力,是使其成为"心灵"的关键一步。人类的行动依赖对世界的认知与有限观察形成的图景,且天生具有"因果直觉",能快速发现事物关联------若机器在有限数据下也能做到这一点,其行为将与人类高度相似。这一过程包含两层含义:
- 若接受神经科学对大脑的研究(人类行动并非仅由"意志"发动,而是与外部因果事件关联),则对"自由意志"的理解会更温和,其部分属性可客观化;
- 若向机器输入因果推理模式,它会基于因果关联行动(如区分"事件甲与乙的因果联系"和"事件甲与丙的相关性"),进而展现类人思维与自由选择能力。
因果推断能力作为强人工智能的核心标准,将带来双向启示:一方面显化人类的"机械性",另一方面赋予机器"主动性"。传统哲学将主体性、自由意志视为"全有或全无"的离散变量,但当代神经科学与认知科学表明,主体性与自由意志是有程度差异的连续变量------"某个体具有更多/较少主体性"的表述具有合法性。因此,对因果推断与强人工智能的关系可从两方面理解:
- 理解层面:放弃人类中心主义,将更易认同机器具有一定程度的自由意志;
- 理论层面:建构因果推断的形式系统,为机器的"有限自由意志"提供基础。
强调因果推断,是珀尔与主流人工智能研究的核心分界。人工智能算法的发展经历了三个阶段,而因果推理是前两者的整合:
阶段 | 推理类型 | 核心局限 |
---|---|---|
早期 | 符号逻辑的演绎推理 | 无法处理不确定性 |
1980年后 | 概率(贝叶斯网络)的归纳推理 | 无法区分相关与因果 |
因果革命后 | 因果推理(演绎+归纳) | 需解决形式化与知识获取问题 |
作为20世纪80年代贝叶斯网络推理的核心研究者,珀尔从90年代起放弃概率推理,转而支持因果推断理论。他尖锐指出:当前的机器学习、深度学习无法发展出真正的人工智能,根本缺陷是忽视因果推断------这如同"爬树登月",而"建造宇宙飞船"(即构造因果推断的数学模型)才是唯一路径。
2.1 因果推断的两种核心理论
因果推断理论中,规则性因果说 与反事实因果理论是最主要的两种框架:
(1)规则性因果说
源于休谟对因果的定义:
"我们把原因定义为有另一个对象跟随的对象,那么所有和前一个对象相似的对象都有和后一个对象相似的对象跟随。"(休谟,第70页,译文有改动)
刘易斯对这一理论进行了形式化定义:令C表示"命题c存在(或发生)",E表示"命题e存在(或发生)",则c是e的原因,当且仅当:
- C和E为真;
- 自然律命题集L和特定事实集合J联合蕴涵C→E,但L和J不联合蕴涵E,且J单独不蕴涵C→E(cf.Lewis,p.556)。
但规则性因果说的致命缺陷是"相关不蕴含因果":公鸡打鸣与天亮、冰淇淋销量与犯罪率均呈规则性相关,但前者并非后者的原因。
(2)反事实因果理论
刘易斯意识到规则性理论的局限,转而提出"反事实因果理论",并指出休谟其实已隐含这一思路------休谟在规则性定义后补充:"或者换句话说,如果前一个对象没有存在,后一个对象永远也不会存在"(休谟,第70页,译文有改动)。这一表述可简化为反事实逻辑:如果a,那么b;并且如果非a,那么非b(cf.Lewis)。
人类对反事实状况的想象,是认知能力的关键跃升------它实现了从"已知"到"未知"的跨越。许多物理学定律均可通过反事实条件句刻画,例如胡克定律(弹簧弹力F与伸长量x成正比,即F=-k·x)的反事实形式为:"如果对弹簧施以双倍的力量,那么弹簧也相应伸长为双倍"。
珀尔的因果推断模型深受刘易斯反事实理论的启发。休谟的规则性因果说是归纳推理,早期AI逻辑推理是演绎推理,1980年后AI转向概率归纳推理,而刘易斯的反事实模型更接近演绎推理------珀尔的贡献在于将演绎与归纳结合,构造了因果的数学模型。
反事实推理之所以关键,是因为人类无法穷尽所有可能性,只能基于有限数据推断:规则因果建立在对"实际发生事件"的归纳,反事实因果则建立在"非实际发生事件"的关联,前者更具体,后者更抽象、普遍,且更符合人类实际推理模式。因此,理解因果推断的核心是理解反事实思维,让机器具备因果推断能力即让其具备反事实思维能力。
2.2 珀尔的因果推断三层面
基于刘易斯的反事实推理思想,珀尔提出:人类获得因果推断能力可分为三个渐进层面(cf.Pearl&Mackenzie,pp.23-51):
-
观察层面 :人类与动物均能观测环境规律与相关性。核心问题是"若处于某场景,我会观察到什么?""事件间如何关联?"(如"哪些症状可判断肌肉萎缩症?""哪些统计数据能预测选举结果?")。
这一层面的关联由条件概率刻画:P(y│x)=p,表示"观察到事件X=x时,事件Y=y的概率为p"。当前主流的机器学习(包括深度学习)均停留在这一层面,其本质是"曲线拟合",仅能处理相关性------而相关不蕴含因果,因此机器学习不等于强人工智能。
-
操作干预层面 :通过预测干预后果做出行为(如早期人类使用工具)。核心问题是"若对某过程干预,会发生什么?"(如"吃奥美拉唑能否缓解胃疼?""戒烟能否改善健康?")。
这一层面的干预由珀尔发明的do演算刻画:P(y│do(x),z)表示"固定X为x、观察到Z=z时,事件Y=y的概率"。do演算的核心是通过"干预"排除混杂变量,实现从"相关"到"因果"的跨越。
-
想象反事实层面 :通过想象理解世界,核心问题是"若我采取其他行为,会有什么结果?""x是否因果导致y?""若x未发生,y是否发生?"(如"阿斯匹林是否缓解了头疼?""若荆轲未刺秦,他会活下来吗?")。
这一层面由反事实概率 刻画:P(yₓ│x',y')表示"实际观察到X=x'、Y=y'时,若X=x,事件Y=y的概率"(例如"李冲当前大二兼职年薪5万,若他大学毕业,年薪10万的概率是多少?")。
珀尔认为,只有达到这一层面,机器才具备真正的因果推断能力------因为它需要基于"实际事实"想象"未发生的可能",这正是人类智能的核心特征。
2.3 三层面的实例阐释
以"法庭宣判死刑→队长下达任务→枪手甲、乙同时开枪→犯人死亡"的连续事件为例,可清晰区分三个层面:
- 观察层面:若犯人死了,法庭是否宣判?(由果溯因:犯人死亡→枪手开枪→队长下任务→法庭宣判,答案为"是");若甲开枪了,乙是否开枪?(甲、乙开枪独立,但甲开枪意味着队长下任务,因此乙也会开枪,答案为"是")。
- 干预层面:若甲不等命令就开枪,犯人是否死亡?(干预直接导致死亡,答案为"是")。
- 反事实层面:若甲不开枪,犯人是否存活?(实际中犯人死亡意味着甲、乙均开枪,且队长下了命令;即使甲不开枪,乙仍会开枪,因此犯人仍死亡,答案为"否")。
三、从因果推断到奇点问题
查尔默斯在《奇点:一个哲学分析》中论证:人工智能发展奇点的出现在逻辑上是可能的(cf.Chalmers)。他强调,即使奇点出现的概率极低(如1%),也需严肃对待------因为它关乎人类未来走向。
3.1 查尔默斯的奇点论证
查尔默斯的论证逻辑可简化为以下步骤:
- 将会出现人类水平的AI(AI,不会太久,缺乏反对证据);
- 若出现AI,那么很快会出现超人类水平的AI(AI+,缺乏反对证据);
- 若出现AI+,那么很快会出现远超人类水平的AI(AI++,缺乏反对证据);
- 结论:将会出现AI++(不会太过遥远,缺乏反对证据)。
其中,"不会太久"指一个世纪内,"很快"指几十年内,"不会太过遥远"指几个世纪内;"缺乏反对证据"是指"无证据表明智能系统无法用自身智能制造更优系统"(仅可能存在大灾难等外部偶然因素)。此外,AI的核心是算法,而计算速度每两年翻倍------当AI达到人类水平后,速度会持续加速(一年翻倍、六个月翻倍......),最终快速达到奇点。
3.2 奇点反对论的三种核心误解
我们无需直接论证查尔默斯的有效性,而是澄清奇点反对论的三种关键误解------算法问题 、主体性问题 、生物基础问题(三者相互关联,共同构成反对奇点的核心理由)。
(1)关于算法的问题
当前AI算法主要分为三类:符号逻辑演绎、概率归纳、因果推理(演绎+归纳)。反对者对算法的批评可分为三种:
批评1:基于哥德尔定理的质疑
哥德尔定理表明"任意一致的形式系统均不完备",因此反对者认为:人类能发现形式系统的局限,但机器不能------进而机器无法等同于人类智能。
对此,图灵在《计算机与智能》中早有回应:"尽管已证明任意特定机器的能力有限,但无证据表明人类智慧没有这种局限性"(Turing,p.446)。人类也会犯错,要求机器"识别自身局限"实则是赋予机器"人类不具备的能力"。
卢卡斯进一步主张"人类比任何机器复杂,能看出哥德尔语句的真假,而机器不能"(转引自程炼,第14-15页),但查尔默斯反驳:"人类无法确立任意形式系统的一致性,因此也可能无法看出自身的哥德尔语句是否为真"(查尔默斯,第396页)。彭罗斯在《皇帝的心脑》中也提出类似质疑,但邢滔滔指出,其论证"不会得出'任何机器都不等价于人的全部数学能力'的结论"(邢滔滔,第105-108页)。
本质上,这类批评对机器的要求超出了对人类的要求------形式系统的局限与人类的认知局限并无本质差异,不能以此否定机器智能。
批评2:基于概率推理的缺陷
反对者认为当前机器学习依赖"大数据、小任务",而人类智能是"小数据、大任务"------机器无法像人类一样基于有限信息解决复杂问题。
这一批评实则支持了珀尔的因果推断理论:当前AI的核心缺陷正是停留在"概率相关"层面,而因果推理(尤其是反事实推理)才是"小数据、大任务"的关键。例如,自动驾驶汽车若配备因果推理程序,无需大量事故数据即可应对突发状况------因为它能思考"事故的原因",而非仅匹配"事故相关的特征"。
查尔默斯的论证基于"既有算法",而因果推断算法比概率推理更接近人类智能------因此,因果推断的发展不仅不否定奇点,反而加强了奇点的逻辑可能性。
批评3:"心灵不可被算法穷尽"
反对者主张:人类心灵包含"智能部分"(可算法模拟)与"非智能部分"(感受、意识、理解等,不可算法模拟),且非智能部分依赖复杂生物机制------因此机器无法实现强人工智能,更无法达到奇点。
这一批评的核心是"智能"与"心灵"的区分:机器可模拟智能,但无法模拟心灵。但正如侯世达所言:"意识是一种极其罕见的复杂组织的物理模式,而不仅仅是传统的物理活动......关键的是组织的模式,而不是构成物的本性"(侯世达,第338、339、346页)。若接受物理主义(一切皆物理构成),则意识是物理模式------人类可通过算法模拟这种模式,而非复制生物构成。
此外,当前研究已在推进"非智能部分"的算法化:例如对"感受质(qualia)"的三层算法(亚概念、概念、语言)模拟(cf.Boyles)、情感计算(让机器外显人类情感)、通用人工智能(如王培的纳斯系统,追求机器自身拥有情感)。这些努力表明,"心灵不可算法穷尽"并非绝对------它更多是一个经验问题,而非概念问题。
(2)关于主体性的问题
反对者认为,人类主体性相关的意识、意向性、感受、责任、自由意志等,无法为机器所拥有------因此机器即使具备因果推断能力,也无法成为"真正的智能体",奇点更无从谈起。
主体性的核心争议:意识与自由意志
塞尔和布洛克提出:机器可模拟大脑行为,但无法模拟"内在层面"(意识、理解、意向性)------智能不是单纯的信息加工,算法无法完整模拟(cf.Searle;Block)。图灵则反驳:"判断机器是否思考,唯一途径是成为机器并感受其思维"(转引自博登编,第73页),这与内格尔"成为蝙蝠会是什么样"的反思一致------若机器能通过对话测试(图灵测试),即可认为其具有意识。
当代认知科学进一步弱化了"主体性的绝对性":
- 意识可分为"功能性意识"(有因果效力,如决策、推理)与"现象意识"(感受性,如疼痛的体验)------机器可模拟前者,后者虽无定论,但已有研究尝试算法化;
- 自由意志并非"全有或全无",而是"程度性"的------机器若能基于因果推断进行反事实思考(如说"你应该做得更好""你应该递砖给我"),则表明它能考虑"未发生的可能性",进而具备"有限的自由意志"。
主体性与责任的关联
若机器具备因果推断能力,其"责任"可根据算法类型区分:
- 基于符号推理、概率推理的机器(如当前AI):行为属机械反应,承担较少责任;
- 基于因果推理、类比推理的机器(如未来强AI):推理模式接近人类,需承担较多责任。
这一区分表明,主体性的核心不是"是否为人",而是"是否具备类人推理能力"------因果推断正是这种能力的关键。只要机器具备因果推断,就拥有"有限主体性",而这已足够为强人工智能与奇点的可能性奠基。
(3)关于生物基础的问题
反对者的核心主张是:机器缺乏人类的生物基础(如基因复制、大脑生物结构、新陈代谢),因此无法具备真正的人类智能------这是奇点的根本障碍。
误解1:"机器需复制生物基础才能模拟智能"
反对者认为,人类智能依赖大脑的生物机制(如神经元连接、神经递质),而机器硬件是硅基芯片,无法复制这种机制。但查尔默斯指出:"人工智能的最大瓶颈是软件,而非硬件------我们需要找到正确的算法,而非复制生物结构"(查尔默斯,第13页)。
关键在于区分"复制"与"模拟":机器无需复制大脑的生物物理基础,只需模拟其功能层面(如信息处理、因果推理)。例如,当前研究已在探索"生物神经网络训练"------将生物神经元作为机器人"大脑",完全取代计算机系统;即使不依赖生物硬件,也可通过算法模拟大脑的功能(如深度学习模拟神经元连接)。
自然演化的生物本身存在局限(如蛋白质机体缺乏力量与速度),而机器可通过优化硬件突破这些局限------只要能模拟生物基础的功能,复制生物结构就无必要。
误解2:"机器无法模拟新陈代谢等生命特征"
反对者认为,新陈代谢是生命的核心特征,机器无法具备。但这一主张混淆了"生命"与"智能":智能的核心是"认知与推理能力",而非"新陈代谢能力"------即使机器不具备生物代谢,只要能模拟认知功能,就可视为智能体。
此外,机器可具备"类代谢能力"(如自主充电、自我修复),反对者仅以"非生物代谢"否定其智能,实则是一种"生物沙文主义"------智能的本质是功能,而非构成材料。
生物基础与因果推断的"获得问题"
珀尔区分了因果推断的两个核心问题:
- 表达问题:机器如何表达因果知识(如珀尔的形式化模型)------无需生物基础,仅需算法即可解决;
- 获得问题:机器如何获得因果知识(如小孩如何学会因果推理)------这涉及生物基础,但关键是"功能模拟"而非"结构复制"。
人类小孩的因果认知并非建立在"空白大脑"上,而是依赖演化遗传的初级认知模式。要解决机器的"获得问题",需探究小孩的认知模式,但无需复制其生物结构------只需从功能上模拟"先天认知框架"即可。当前研究虽未完全解决这一问题,但已有进展(如婴儿认知实验揭示的因果直觉规律),且"生物基础是否必要"仍是开放问题------即使必要,功能模拟也足以替代生物复制。
3.3 奇点可能性的结论
从因果推断视角分析奇点问题,可得出两点核心结论:
- 奇点在逻辑上是可能的:因果推断的算法革命(解决表达问题)、生物基础的非必要性(功能模拟可替代结构复制),共同为奇点的逻辑可能性奠基;
- 奇点的实际性是经验问题:需依赖"获得问题"的进展------若小孩的因果认知模式实质依赖生物基础且机器无法模拟,则奇点实际不可能;若模式不依赖生物基础或可模拟,则奇点实际可能。
四、结论
人类人工智能理论的发展经历了三个阶段:基于规则推理(符号主义)、概率推理(贝叶斯网络)、因果推理(演绎+归纳)。其中,因果推理是一次范式转换与科学革命------它更符合人类实际推理模式,对理解人工智能与人类心智具有不可估量的价值,而珀尔等因果推断学派为此奠定了基础。
我们认为:
- 奇点在逻辑上是可能的:因果推断解决了强人工智能的核心算法问题,生物基础不构成原则性障碍;
- 可能性不等于实际性:要将可能性转化为实际性,需解决因果推断的"获得问题"------即理解小孩的先天认知模式,弄清其生物基础与认知能力的关联。
库兹韦尔的主张极具启发性:未来人工智能的发展,需要整合传统生物智能与机器智能------生物智能提供"先天认知框架",机器智能提供"算法效率与数据处理能力",二者结合才能突破强人工智能的瓶颈,为奇点的实际到来奠基。
最后,哲学与科学在奇点问题上的分工需明确:
- 哲学家的任务是论证奇点的逻辑可能性(如查尔默斯的论证),并澄清概念误解(如"因果推断与主体性的关系""生物基础与功能模拟的区分");
- 科学家的任务是通过经验研究回答奇点的实际性(如"获得问题"的解决、算法的优化、硬件的突破)。
哲学家无法引用未来证据否定奇点的实际性,科学家也需避免陷入"概念混淆"(如将"生物基础的必要性"视为先天真理)。只有二者合作,才能更深刻地理解人工智能的可能性与限度------这不仅是对技术的反思,更是对人类自身存在的追问。
本文链接:https://www.aisixiang.com/data/129498.html
文章来源:本文转自哲学研究,转载请注明原始出处,并遵守该处的版权规定。
参考文献
- 博登编,2001年:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社。
- 博登,2017年:《人工智能:本质和未来》,中国人民大学出版社。
- 查尔默斯,2013年:《有意识的心灵》,朱建平译,中国人民大学出版社。
- 程炼,2005年:《人工智能基础评论》,载《思想与论证》,北京大学出版社。
- 丹尼特,2001年:《意识的解释》,苏德超译,北京理工大学出版社。
- 葛瑞汉,2000年:《二程兄弟的新儒学》,程德详等译,大象出版社。
- 侯世达,2019年:《我是个怪圈》,修佳明译,中信出版社。
- 库兹韦尔,2011年:《奇点临近》,李庆诚、董振华、田源译,机械工业出版社。
- 蒉益民,2019年:《因果理论:上向因果性与下向因果性》,载《哲学研究》第4期。
- 李文钊,2018年:《因果推理中的潜在结果模型:起源、逻辑与意蕴》,载《公共行政评论》第1期。
- 尼克,2017年:《人工智能简史》,人民邮电出版社。
- 邢滔滔,2008年:《哥德尔定理正反观》,载《科学文化评论》第2期。
- 休谟,1997年:《人类理解研究》,关文运译,商务印书馆。
- 朱松纯,2016年:《浅谈人工智能:现状、任务、构架与统一》,http://www.stat.ucla.edu/~sczhu/research_blog.html#VisionHistory。
- Block,N.,1981,"Psychologism and Behaviorism",in Philosophical Review 90.
- Boyles,R.,2012,"Artificial Qualia,Intentional Systems and Machine Consciousness",in Proceedings of the DLSU Congress.
- Chalmers,D.,2010,"The Singularity:A Philosophical Analysis",in Journal of Consciousness Studies 17;2012,"The Singularity:A Reply to Commentators",in Journal of Consciousness Studies(7-8).
- Lewis,D.,1973,"Causation",in Journal of Philosophy 70.
- Lucas,J.R.,1961,"Minds,Machines,and G?del",in Philosophy 36.
- Pearl,J.,2009,Causality,Cambridge:Cambridge University Press;2016,Causal Inference in Statistics:A Prime,Toronto:Wiley Press.
- Pearl,J.&Mackenzie,D.,2018,The Book of Why:The New Science of Cause and Effect,New York:Basic Book.
- Penrose,R,1994,Shadows of the Mind,London:Oxford University Press.
- Searle,J.,1980,"Minds,Brains,and Programs",in Behavioral and Brain Sciences 3.
- Turing,A.M.,1950,"Computing Machinery and Intelligence",in Mind 49.