人工智能与机器学习,谁是谁的子集 —— 再谈智能的边界与演进路径

人工智能(Artificial Intelligence, AI)作为当代最具影响力的前沿技术之一,常被大众简化为 "深度学习" 或 "大模型" 等标签。然而,这种简化认知往往掩盖了AI技术内部结构的复杂性与多样性。事实上,AI并非单一方法的代名词,而是由多个理论基础与实践路径共同构成的多学科交叉系统。 本篇文章将从历史演进的角度,系统梳理人工智能的主要分支与技术流派,包括符号主义、连接主义、进化主义等不同范式的基本原理、代表模型及其适用场景。通过这一过程,旨在帮助读者构建关于人工智能更全面、更准确的知识图谱,并理解当前主流技术在整体AI体系中的位置与局限性。


人工智能与机器学习,谁是谁的子集 ------ 再谈智能的边界与演进路径1、人工智能概念的诞生2、人工智能的三大流派2.1、符号主义学派2.2、连接主义学派2.3、行为主义学派2.4、机器学习的分类及其与个学派的融合发展3、机器学习及其相关概念3.1、机器学习的概念3.2、监督学习(名师出高徒)3.3、无监督学习(自学成才)1.3.4、强化学习(赌徒)3.5、神经网络(神经元小队)3.6、深度学习(约等于 深度神经网络 -- 神经元军团)X、后记


提到人工智能,可能你的脑海中第一时间浮现的就是 "机器学习" 这个概念,当然你知道 人工智能 不等于机器学习,但是除了机器学习和机器学习的衍生技术(深度学习、神经网络等)之外,你还知道有哪些人工智能的技术分支呢。

这就是本篇来带大家介绍的内容。

1、人工智能概念的诞生

在 17 世纪的法国,一位伟大哲学家和数学家坐在火炉前沉思,他叫勒内·笛卡尔(René Descartes,1596~1650,现代哲学之父,数学坐标系的创始人),他写下了那句影响数百年的名言:"我思故我在(Cogito, ergo sum)"。

笛卡尔的时代没有电脑,没有电,更没有人工智能。但他第一次提出了一个大胆的问题:

"人类思维是否可以像机器那样被解析?"

在他的著作《谈谈方法》中,笛卡尔设想了一个世界,其中 「人类和动物不过是精巧的机器(automata)」,而人类之所以特殊,是因为我们拥有 "思想" 和 "理性"。

但正是这种 "把心智等同于计算系统" 的思想,启发了后来的科学家思考一个问题:

如果人类是可以 "计算" 的机器,那么我们能否制造出另一种机器,也会 "思考" ?

三百年后、英国的计算机科学家 艾伦·麦席森·图灵(Alan Mathison Turing,1912~1954) 用划时代的 "图灵测试" 给出了回应。1950年,他在论文《计算机器与智能》中设计了一个实验方案------模仿游戏(Imitation Game):

我建议考虑一个问题:'机器能思考吗?'

......

为了避免定义 '思考' 的困难,我们可以用一种被称为 '模仿游戏' 的测试来替代。游戏由三个人进行:一个男人(A)、一个女人(B)和一个询问者(C),询问者通过书面方式与另外两人交流,目标是分辨谁是男人、谁是女人。

现在,如果让一台机器取代 A 的角色,询问者能否像分辨男人和女人一样,分辨机器和人?如果机器能成功欺骗询问者,使其无法区分,那么我们可以说这台机器具有智能。

并且图灵预测,到 2000 年时,计算机将能在 5 分钟的对话中骗过 30% 的人类裁判。

这就是大名鼎鼎的 "图灵测试",它的意义不仅在于提出一个 "智能" 标准,更在于它彻底改变了人工智能的研究范式,使其从哲学思辨转向可操作的科学实验。

进而,在 1956 年的达特茅斯会议上,一个全新的学科被定义,而学科名正是 "人工智能(Artificial Intelligence)"。


2、人工智能的三大流派

从学术的观点上看,当下的人工智能主要被划分成了三大学派,分别是 符号主义学派、连接主义学派 和 行为主义学派。

2.1、符号主义学派

符号主义,又称逻辑主义、心理学派或计算机学派,是一种基于逻辑推理的智能模拟方法,认为人工智能源于数学逻辑,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。

核心思想:智能的本质是符号推理,通过逻辑规则和知识表示模拟人类思维。

代表人物:

  • 艾伦·图灵(计算理论)
  • 约翰·麦卡锡(LISP 语言,逻辑 AI)
  • 马文·明斯基(框架理论)
  • 赫伯特·西蒙 & 艾伦·纽厄尔(通用问题求解器 GPS)

发展历程:

  • 1950s - 1960s(黄金期):1956 年达特茅斯会议确立 AI 学科,符号主义主导早期研究;专家系统(Expert Systems)兴起,如 DENDRAL(化学分析)、MYCIN(医疗诊断);
  • 1970s - 1980s(瓶颈与复兴):受限于计算能力和知识获取难度("知识工程" 成本高),进入 "AI 寒冬";1980 年代专家系统商业化(如 XCON),但最终因维护困难衰落;
  • 1990s - 今(与机器学习结合):逻辑编程(Prolog)、知识图谱(Google Knowledge Graph)仍在特定领域应用;现代 AI(如ChatGPT)仍部分依赖符号推理(如数学证明、规划问题)。

2.2、连接主义学派

连接主义,又称仿生学派或生理学派,是一种基于神经网络和网络间的连接机制与学习算法的智能模拟方法。连接主义强调智能活动是由大量简单单元通过复杂连接后,并行运行的结果,基本思想是,既然生物智能是由神经网络产生的,那就通过人工方式构造神经网络,再训练人工神经网络产生智能。

核心思想:智能源于神经网络的分布式计算,模拟人脑神经元连接。

代表人物:

  • 弗兰克·罗森布拉特(感知机,1958)
  • 杰弗里·辛顿(反向传播算法,1986)
  • 杨立昆(卷积神经网络 CNN)
  • 约书亚·本吉奥 & 伊恩·古德费洛(深度学习、GAN)

发展历程:

  • 1940s - 1960s(早期探索):麦卡洛克-皮茨提出神经元模型(1943);罗森布拉特提出感知机(1958);1969 年明斯基出版《感知机》指出单层网络局限性,导致连接主义进入低谷;
  • 1980s - 1990s(复兴):辛顿改进反向传播算法,神经网络重新受到关注。受限算力,仍无法超越符号主义。
  • 2010s - 今(深度学习革命):大数据 + GPU算力爆发,CNN(2012 AlexNet)、RNN、Transformer(2017)等模型突破;AlphaGo(2016)、GPT(2018-2023)、Stable Diffusion(2022)等应用爆发。

2.3、行为主义学派

行为主义,又称进化主义或控制论学派,是一种基于 "感知------行动" 的行为智能模拟方法,思想来源是进化论和控制论。其原理为控制论以及感知------动作型控制系统。

核心思想:智能是环境交互的产物,通过试错学习(如强化学习)。

代表人物:

  • 罗德尼·布鲁克斯(行为机器人学)
  • 理查德·萨顿(强化学习理论)
  • DeepMind(AlphaGo、AlphaFold)

发展历程:

  • 1980s - 1990s(机器人学兴起):布鲁克斯提出 "包容架构"(Subsumption Architecture),强调简单行为组合成复杂智能(如 Roomba 扫地机器人);
  • 2000s - 今(强化学习爆发):2016 年 AlphaGo 击败李世石,强化学习(RL)成为热点。应用于游戏 AI(OpenAI Five)、自动驾驶(Tesla)、机器人控制(Boston Dynamics)。

2.4、机器学习的分类及其与个学派的融合发展

简单的来说,我们可以认为符号主义研究抽象思维,注重数学可解释性;连接主义研究形象思维,偏向于仿人脑模型;行为主义研究感知思维,偏向于应用和身体模拟。

这就是人工智能诞生后形成的三大主流学派,当然,也有一种五大主流学派的说法, 但是这并不影响我们思考,现在人工智能真正的主流学科 -- 机器学习,属于哪个流派呢?

个人观点:

首先要说明的是,当下的机器学习不属于上述的任何一个流派,无论是三大流派还是五大流派的分类,更像是一种 "旧人工智能" 时代的说法了。当下的机器学习和机器学习这个概念诞生之初的概念也产生了巨大的区别,当下的机器学习更像是外部学科对人工智能领域的入侵,它是基于数学与概率学。所以你可以发现当我们强调机器学习的基础时,不是这些学派理论、计算机科学,而是高数、线性代数等数学和概率学内容。

当下的机器学习的发展是早期学派时代的的一条未曾设想的道路,而且这条道路在当下看来无疑是正确的。因为 无论是符号主义学派,还是连接主义学派,又或者是行为主义学派。这些学派产生分歧和争论的目的,不都是研究如何产生更强大的人工智能机器吗?而当下的机器学习做到了!

并且,机器学习通过有机整合连接主义的架构优势、行为主义的学习范式以及符号主义的逻辑内核,正在突破单一方法论的局限,推动人工智能进入多维协同发展的新阶段。这一领域的显著进步不仅源于数学与统计学的理论基石,更通过兼收并蓄三大流派的核心思想实现突破性创新:

  • 以神经网络为代表的连接主义奠定了深度学习的生物启发式架构(如GPT、AlphaFold),
  • 行为主义的试错机制演化出强化学习的智能体训练范式(如 AlphaGo 的决策体系),
  • 而符号主义的逻辑可解释性则催生了神经符号系统等融合型技术(如医疗诊断中的规则推理引擎)。

这种跨流派的协同进化,既保留了数据驱动的计算优势,又弥补了传统方法的解释性缺陷,为人工智能应对复杂现实问题提供了更完备的技术路径。


3、机器学习及其相关概念

3.1、机器学习的概念

笔记部分:

机器学习是什么:机器学习(Machine Learning, ML)是一种让计算机无需显式编程,而是通过数据自动学习模式,并进行预测或决策的技术。

机器学习的核心思想:

  1. 从数据中学习(而不是手写规则)
  2. 建立数学模型(让机器自动发现数据中的规律)
  3. 对未知数据做出预测或决策(泛化能力)

机器学习分类:通常机器学习可以分为 监督学习、无监督学习、强化学习 三大类,其中监督学习是现实应用最广泛、发展最迅猛的领域。

3.2、监督学习(名师出高徒)

监督学习:是一个举一反三的过程,先由已标注正确的训练集进行训练,训练完成之后的经验称为模型,然后将未知的数据传入模型,机器即可通过经验推测出正确结果。

  • 核心奥义:给机器 "标准答案" → 就像教孩子认动物卡片:"这是猫,这是狗"
  • 生活场景:你刷抖音时,系统能准确推荐你爱看的萌宠视频------这就是监督学习在分析你的历史行为(带标签数据)
  • 致命弱点:需要大量标注数据(相当于要求老师给每道题写详解)

监督学习有两个任务:回归和分类。

  • 回归:可以理解为 逆向的分类 ,通过特定算法对大量的数据进行分析,总结出其中的个体具有代表性的特征,形成类别;
  • 分类:概念很容易理解,通过 训练集 给出的分类样本,通过训练总结出样本中各分类的特征模型,再将位置数据传入特征模型,实现对未知数据的分类。

3.3、无监督学习(自学成才)

无监督学习 本质上是一种统计手段(也可以理解为一种分类手段),它没有明确目的的训练方式,你无法提前知道结果是什么,因此无须打标签。它的原理类似于 监督学习中的回归 ,但在回归结果中没有打标签。

  • 核心奥义:让机器自己找规律 → 把 100 种动物图片丢给机器,它自己分出"长耳朵族"、"短腿族"
  • 震惊案例:某银行用无监督学习发现,凌晨3点频繁小额转账的客户,80%涉嫌洗钱(机器自己发现了异常模式)
  • 隐藏技能:处理现实中 90 %的无标签数据

它常用的两个分类算法(手段)是 降维和聚类:

  • 降维:这里的 降维 和《三体》中的 "降维打击" 并非同一个概念,这里的降维,实质上是一种 去重过程。
  • 聚类:简单来说,是一种自动化分类的方法,在监督学习中,你很清楚每一个分类是什么,但是聚类则不是,你并不清楚聚类后的几个分类每个代表什么意思。

1.3.4、强化学习(赌徒)

强化学习 指的是计算机对没有学习过的问题做出正确解答的泛化能力,可以理解为 强化学习 = 监督学习 + 无监督学习。和监督学习一样,它也是需要人工介入的。

  • 核心奥义:用奖励机制培养"条件反射" → 就像训练猫咪:跳上桌子就断电(惩罚),回猫窝就喂零食(奖励)
  • 封神之作:AlphaGo下棋时,每走一步都在计算 "这步棋能增加多少胜率"(即时奖励评估)
  • 残酷真相:训练一个强化学习模型,耗电量够普通家庭用十年。

3.5、神经网络(神经元小队)

人工神经网络(Artificial Neural Network,ANN,也简称为神经网络),是机器学习模型的一个分支,它是利用连接主义在神经元组织的基础上建立的,而这些神经元组织的工作原理正是在动物大脑的生物神经网络中发现的

  • 核心奥义:让机器像人脑一样处理信息 → 把一堆 "神经元" 连成网,信息层层传递,逐渐形成判断
  • 模拟原理:就像人脑的神经细胞一样,人工神经元会根据输入信号做出 "激活" 与否的反应,然后传递给下一层神经元
  • 历史瞬间:1986 年 Hinton 等人提出的 误差反向传播算法(Backpropagation)是神经网络腾飞的关键技术

神经网络(Neural Networks)既可以用于监督学习,也可以用于无监督学习,甚至强化学习。

神经网络本质上是一种数学模型,它本身不是某种特定的学习类型,而是可以适用于不同的机器学习范畴。

神经网络,或称为人工神经网络,Artificial neural networks (ANNs),或称为模拟神经网络,Simulated neural networks (SNNs),它是一种模仿人类大脑中神经网络结构和功能的计算模型。人工神经网络由大量的人工 "神经元" 组成,每个神经元都是对大脑中的神经元细胞的模仿。

3.6、深度学习(约等于 深度神经网络 -- 神经元军团)

深度学习是一类机器学习算法,使用多层神经网络从原始输入中逐步提取更高层次的特征。深度学习中的形容词 "深度" 指的是在神经网络中使用多个层。由此可见,深度学习应该可以说是约等于深度神经网络的。

  • 核心奥义:用神经网络模拟人脑 → 就像给机器装上"写轮眼",能自动提取图像特征
  • 震惊操作:医生用深度学习看 CT 片,找到连人类都忽视的早期癌变特征
  • 使用代价:需要海量数据 + 顶级显卡,堪称 "吞电巨兽"

但是到底多少层才是 "深" ,并没有一个很确切的定论,一般只有一两层隐含层的神经网络,通常会被认为是浅层神经网络,"深度" 一词指的是神经网络的层数多,通常包括多个 "隐藏层" (Hidden Layers)。这意味着模型可以逐层提取出越来越复杂的特征:

  • 第一层可能识别出图像的边缘
  • 第二层识别出基本形状(如圆形、长条)
  • 第三层组合出猫耳朵、眼睛
  • 更深的层最终输出:"这是一只猫!"

这就像是给机器安装了一套自动进化的 "感知系统"。


X、后记

人工智能的演进史是一部融合哲学思辨、数学建模与工程实践的复合式发展轨迹。从早期的逻辑推理与专家系统,到如今的数据驱动方法和大规模深度学习模型,各技术路线虽路径迥异,但均致力于实现 "智能行为" 的再现与优化。

值得强调的是,尽管当前深度学习技术在多个领域取得突破性成果,其在可解释性、样本效率、泛化能力等方面仍面临诸多挑战。因此,未来AI的发展趋势很可能呈现 "多范式融合" 的格局:神经网络与符号推理的结合、多模态与多任务学习的集成、知识驱动与数据驱动的协同,皆将成为推动AI走向通用智能的重要方向。

希望本文能够为读者提供一扇通向AI多元体系的窗口,并激发更深入的技术探索与跨学科思考。

相关推荐
豆芽8192 分钟前
强化学习(Reinforcement Learning, RL)和深度学习(Deep Learning, DL)
人工智能·深度学习·机器学习·强化学习
山北雨夜漫步8 分钟前
机器学习 Day14 XGboost(极端梯度提升树)算法
人工智能·算法·机器学习
yzx99101320 分钟前
集成学习实际案例
人工智能·机器学习·集成学习
CodeJourney.21 分钟前
DeepSeek与WPS的动态数据可视化图表构建
数据库·人工智能·信息可视化
jndingxin22 分钟前
OpenCV 图形API(62)特征检测-----在图像中查找最显著的角点函数goodFeaturesToTrack()
人工智能·opencv·计算机视觉
努力犯错24 分钟前
昆仑万维开源SkyReels-V2,解锁无限时长电影级创作,总分83.9%登顶V-Bench榜单
大数据·人工智能·语言模型·开源
小华同学ai31 分钟前
40.8K star!让AI帮你读懂整个互联网:Crawl4AI开源爬虫工具深度解析
人工智能
文慧的科技江湖44 分钟前
图文结合 - 光伏系统产品设计PRD文档 -(慧哥)慧知开源充电桩平台
人工智能·开源·储能·训练·光伏·推理
白熊1881 小时前
【计算机视觉】CV实战项目 - 基于YOLOv5与DeepSORT的智能交通监控系统:原理、实战与优化
人工智能·yolo·计算机视觉