人工智能学派
一般来说,人工智能 (AI)是指通过计算机程序或机器来模拟、实现人类智能的技术和方法。但是正如一百个读者就有一百个哈姆雷特,不同的人对实现人工智能的方式有不同的看法。主要有三个学派,分别是是符号主义、连接主义和行为主义,这三个学派分别从逻辑、仿生和行为三个角度来研究智能。
符号主义学派
符号主义学派的核心思想是认知即计算,它们主张使用的是逻辑推理和演算的方法,通过解析物理符号系统假说和启发式搜索原理去寻找智能,它关心的是承载智能的心理结构和逻辑结构。
在探索过程中,分别经历了推理期、知识期、学习期,同时这三个阶段都遇到了相应的问题。
- 推理期
最初这派的学者并未过多考虑知识的来源问题,而是假设知识是先验地存储于黑盒之中的,重点解决的问题是利用现有的知识去做复杂的推理、规划、逻辑运算和判断,这个时期称为符号主义的推理期
- 知识期
后来大家发现智能的体现并不能仅依靠推理来解决,先验的知识是更重要的一环,研究重点就转变为如何获取知识、表示知识和利用知识,这个时期称为符号主义的"知识期"
- 学习期
由于知识仅依靠人类专家总结、提炼然后输入计算机的方式无法应对世界上几乎无穷无尽的知识,研究的重点又转为如何让机器自己学习知识、发现知识这个方向,这个时期就称为符号主义的"学习期"。但是智能太过复杂,无法用总结归纳这一般方法来解决,同时实现方法很多都受NP完全问题困扰。
连接主义学派
连接主义学派则是使用的是生物仿生学的方法,通过模拟生物体的脑部组织结构去寻找智能,它关心的是承载智能的生理结构
行为主义学派
该学派主要起源于《控制论》一书,行为主义学派所追寻的智能来自"感知---动作"模式,这个学派认为是否存在智能,取决于感知能力和表现出来的外在可见的行为,而智能行为又是必须通过现实世界与周围环境的交互作用才能表现出来的,因此智能不是仅存在于脑部的智能,而是与身体和所处的环境系统都有密切的联系。
该学派的主要研究方向是:智能机器人、控制科学等。这就导致了大量相关的研究并没有归入人工智能范畴里,而是放到了控制科学、人工生命、机器人学等与人工智能有密切关系的交叉学科之中。因此人工智能的圈子里对这个学派的研究、讨论一直是不温不火。
如果要用最简单的一句话进行总结,我们可以说连接主义学派在研究"大脑"(Brain),符号主义学派在研究"心智"(Mind),行为主义学派则在研究"行为"(Action)。
人工智能的发展
第一次浪潮
1956 年的达特茅斯会议上,人工智能
这一术语首次被提出。随后的二十年里,迎来了人工智能的第一次浪潮。在这一阶段,主要是符号学派占据主角。这是因为在其他学科中,根据具体现象,总结一般规律 和 根据客观规律,推理未知现象的研究方法非常有效,因此大多数科学家都倾向于使用逻辑和演算的方式来实现人工智能。
其次是连接学派,其中最有名的是罗森布拉特制造出感知机,这是神经网络的开端。但是由于当时的人工智能权威专家明斯基出版《感知机:计算几何学导论》来质疑感知机,导致这个技术备受冷落。
由于政府、媒体、科学界等各方的推波助澜,和学科资助者浮夸地许诺,导致人们对人工智能地发展过于乐观。而当实际情况与发展不符合时,人们就痛斥人工智能只是一个谎言,这导致了人工智能地第一个寒冬。
第二次浪潮
在第一次浪潮沉寂十年后,人工智能在20世纪80年代开始再度爆发,这波浪潮引领的力量是符号主义,主要是知识工程和专家系统。除此之外,连接学派的神经网络开始缓慢复苏,开始出现多层神经网络,但是由于数据量、算力的限制,效果一直不好。
知识工程:是指研究如何把人类知识进行形式化、规范化表达,并将这些知识有效地输入到计算机系统中,以便计算机能够理解、存储、运用这些知识来解决实际问题。
专家系统则是知识工程的一个典型应用成果。它是基于特定领域专家的知识和经验构建而成的智能程序系统。但是专家系统严重依赖人类专家给机器灌输知识,仅限于某个专业领域中还有些许可行性,但对于多数领域而言,靠人类专家是无论如何都不可能跟上知识膨胀的速度的。因此要实现人工智能,让机器能够主动学习是必不可少的。但是智能太过复杂,无法用总结归纳这一般方法来解决,同时实现方法很多都受NP完全问题困扰,导致让机器学习到达理想愿景的道路充满荆棘。
最后由于硬件、理论、数据量等等原因,人工智能再次进入了寒冬。
现在
前面提到过,要想机器实现人工智能,机器学习是不得不解决的问题。目前机器学习的方案主要分为三类:基于规则的机器学习、基于数据统计的机器学习、基于深度神经网络的机器学习。
其中基于基于深度神经网络的机器学习引领了现在第三次人工智能的高潮。比如在计算机视觉领域,卷积神经网络(CNN)成为标配,CNN 及其变体能够精准地识别图像中的物体、定位目标并划分语义区域,广泛应用于安防监控、自动驾驶、医疗影像诊断等领域;自然语言处理同样因深度学习实现质的飞跃。循环神经网络(RNN)及其改进版本长短期记忆网络(LSTM)和门控循环单元(GRU),能够处理序列数据,用于机器翻译、文本生成、情感分析等任务。近年来,基于 Transformer 架构的预训练模型更是大放异彩,如现在爆火的 GPT 系列
人工智能技术
人工智能技术主要分别 自然语言处理(NLP)、计算机视觉(CV)、语音识别和机器学习这四个领域。下面分别介绍这些领域的特点。
自然语言处理(NLP)
自然语言处理是研究计算机如何理解、生成和处理人类自然语言的技术领域。它的范围比语音识别更广泛,不仅包括文本理解,还涉及文本生成、机器翻译、情感分析等多种任务。
计算机视觉
计算机视觉是让计算机理解和解释视觉信息(如图像和视频)的技术领域。例如,在人脸识别系统中,计算机需要从图像中识别出人脸的特征,判断是否是特定的人。
语音识别
语音识别主要专注于将人类语音转换为计算机可理解的文本形式。例如,语音助手(如苹果的 Siri、亚马逊的 Alexa 等)通过语音识别技术将用户说的话转化为文字,然后才能进行后续的理解和处理。
机器学习
机器学习是一个广泛的领域,旨在让计算机系统从数据中学习模式和规律,以实现各种任务,而无需显式编程。机器学习分为监督学习、无监督学习和强化学习三种。其中最有名的深度学习就属于无监督学习。
人工智能技术应用
LLM(大型语言模型)
LLM 是一种基于深度学习的人工智能模型,用于处理自然语言的各种任务。它们通常由数十亿到数万亿个参数组成的神经网络构成,通过对大量的文本数据进行训练,来学习语言的语法、语义和上下文信息,从而能够对自然语言文本进行理解和生成。比如现在很火的 ChatGPT 中 GPT 就是由 OpenAI 开发的 LLM。
AIGC(人工智能生成内容)
AIGC(人工智能生成内容)是人工智能在内容创作方面的概念,涉及多种类型的内容生成,使用不同的人工智能技术,应用于各种创作领域。
Agentic AI(代理式人工智能)
Agentic AI,代理式人工智能。Agentic AI 强调的是 AI 的自主性和代理性,即 AI 系统能够在没有人类直接干预的情况下,自主地完成任务。AI Agent 是实现 Agentic AI 的关键,而 LLM 为 AI Agent 提供了处理语言和理解环境的能力。
LLM 是基础,ChatGPT 是 LLM 的对话应用,AIGC 依赖 LLM 生成内容,AI Agent 是 LLM 高级应用
参考
- 《智慧的疆界:从图灵机到人工智能》
- 【科普篇】LLM、GPT、AIGC、AI Agent、Agentic AI 到底是个啥?_gpt llm nlp-CSDN博客