文章目录
-
- [一、课程定位与智能本质(Course Positioning & Intelligence Essence)](#一、课程定位与智能本质(Course Positioning & Intelligence Essence))
- [二、AI三大核心方法(Three Core Methods)](#二、AI三大核心方法(Three Core Methods))
-
- 核心结论
- [1. 搜索方法(Search Methods):在问题空间中找解](#1. 搜索方法(Search Methods):在问题空间中找解)
- [2. 学习方法(Learning Methods):从数据中提取规律](#2. 学习方法(Learning Methods):从数据中提取规律)
- [3. 推理方法(Reasoning Methods):基于知识进行推导](#3. 推理方法(Reasoning Methods):基于知识进行推导)
- [三、三大方法的关系与演进(Relationships & Evolution)](#三、三大方法的关系与演进(Relationships & Evolution))
-
- 核心结论
- [1. 问题-方法映射(Problem-Method Mapping)](#1. 问题-方法映射(Problem-Method Mapping))
- [2. 方法的演进逻辑(Evolution Logic)](#2. 方法的演进逻辑(Evolution Logic))
- [四、核心设计原理(Design Principles)](#四、核心设计原理(Design Principles))
-
- 核心结论
- [1. 搜索的本质:在权衡中找解](#1. 搜索的本质:在权衡中找解)
- [2. 学习的本质:从数据中提取规律](#2. 学习的本质:从数据中提取规律)
- [3. 推理的本质:基于知识进行推导](#3. 推理的本质:基于知识进行推导)
- [4. 设计权衡的核心思想(Design Trade-offs)](#4. 设计权衡的核心思想(Design Trade-offs))
- [五、课程实践:理论结合实践(Course Practice)](#五、课程实践:理论结合实践(Course Practice))
- [📝 课程总结](#📝 课程总结)
⏱️ 预计阅读时间 :40-50分钟
🎯 学习目标:理解AI的核心问题、三大方法的设计逻辑和演进关系
一、课程定位与智能本质(Course Positioning & Intelligence Essence)
人工智能原理是一门AI专业的导论课程位于应用课程之前,为后续的专业课程(如语音识别、计算机视觉、自然语言处理)提供理论基础。就像建造大厦,这门课程是框架结构,为后续的各个楼层(应用领域)提供支撑。
核心问题:如何让机器具备智能,能够搜索、学习和推理?
解决方案的逻辑 :
通过搜索(在问题空间中找解)、学习(从数据中提取规律)、推理(基于知识进行推导)三大方法,在具身智能的五个维度(耳聪、目明、心灵、手巧、伶俐)上实现智能,其中学习是核心(占60%),搜索和推理各占20%。
从具身智能视角,智能可以分解为五个维度,每个维度对应不同的AI技术:
| 智能维度 | 对应AI领域 | 核心能力 |
|---|---|---|
| 耳聪 | 语音识别、NLP | 听觉感知、语言理解 |
| 目明 | 计算机视觉 | 视觉感知、图像识别 |
| 心灵 | 搜索、推理、机器学习、强化学习 | 思考、决策、学习 |
| 手巧 | 机器人学、自动化控制 | 操作、控制 |
| 伶俐 | 语言大模型、VLM | 语言表达、多模态理解 |
智能
Intelligence 耳聪
语音识别、NLP 目明
计算机视觉 心灵
搜索、学习、推理 手巧
机器人学 伶俐
大语言模型 搜索20% 学习60% 推理20%
二、AI三大核心方法(Three Core Methods)
核心结论
方法分配:AI的核心方法包括搜索(20%)、学习(60%)、推理(20%)三大类,学习是核心。
三大方法的关系:
- 搜索:在问题空间中找解,适用于有明确解空间的问题
- 学习:从数据中提取规律,是现代AI的核心方法
- 推理:基于知识进行推导,适用于有知识库的问题
60% 20% 20% AI核心方法分配 学习 搜索 推理
💡 说明:学习占最大比重,因为现代AI主要依赖数据驱动的方法
1. 搜索方法(Search Methods):在问题空间中找解
核心结论:搜索方法通过在问题空间中系统探索来找到解决方案,核心是在完备性、最优性、效率之间权衡。
核心问题:
- 如何将实际问题形式化为搜索问题?
- 如何在问题空间中系统地找到解决方案?
- 如何避免局部最优?
- 如何在复杂约束条件和对抗性环境中找到解?
解决方案的逻辑:
- 首先通过定义状态空间、动作、目标测试、状态转移函数、路径代价五个核心要素,将实际问题转化为可搜索的形式化问题;
- 然后通过不同的扩展策略(按层、按代价、按深度)和优化技术(启发式、双向搜索、图搜索)在无信息情况下搜索,通过启发函数提供信息引导,结合实际代价和估计代价(贪婪策略和A*策略)在有信息情况下搜索;
- 通过概率接受机制(模拟退火)和进化机制(遗传算法)避免局部最优;
- 通过约束满足问题(回溯搜索+约束传播)和博弈搜索(α-β剪枝、MCTS)处理复杂问题。
搜索方法的发展脉络:
问题形式化:将实际问题转化为可搜索的形式化问题,通过定义状态空间、动作、目标测试、状态转移函数、路径代价五个核心要素,就像将自然语言翻译成计算机能理解的形式语言。
基础搜索策略:
- 无信息搜索 :像在陌生迷宫中找出口,没有任何线索,只能系统探索。
- 按层扩展(BFS)保证最短路径但内存消耗大,
- 按代价扩展(UCS)保证代价最小,
- 按深度扩展(DFS)节省内存但可能找不到解,
- 迭代深入(IDDFS)兼顾BFS和DFS的优点。
- 启发式搜索 :像有地图指引,知道大概方向,搜索更高效。贪婪策略只考虑估计代价快速但不一定最优,A*策略综合考虑实际代价和估计代价既能利用信息又能保证最优性。
局部搜索算法:
- 模拟退火:像金属退火过程,通过概率接受机制允许暂时接受较差解,高温时允许探索跳出局部最优,低温时收敛到全局最优。
- 遗传算法:像从单个人探索到一群人协同探索,通过优胜劣汰和遗传操作,从多个解出发并行搜索,避免陷入局部最优。
高级搜索策略:
- 约束满足问题:像解数独,需要满足多个约束条件。通过回溯搜索系统化探索解空间,通过约束传播提前发现冲突减少搜索空间,通过变量选择策略(MRV、度启发式)和值选择策略(最少约束值)优化搜索顺序。
- 博弈搜索:像下棋,要考虑对手的反应。传统方法(α-β剪枝)适合搜索空间较小的问题,通过极小极大算法从对手角度选择最优策略,通过α-β剪枝减少搜索节点数。现代方法(MCTS)适合搜索空间巨大、无法精确评估的问题,通过随机模拟评估决策、树搜索组织探索、UCB算法平衡探索与利用。
设计权衡:
- 完备性 vs 效率:保证找到解 vs 快速找到解
- 最优性 vs 空间:找到最优解 vs 节省内存
- 系统搜索 vs 启发式:全面探索 vs 有方向搜索
- 局部改进 vs 全局探索:快速改进当前解 vs 跳出局部最优
- 搜索空间 vs 评估精度:巨大搜索空间 vs 精确评估函数
2. 学习方法(Learning Methods):从数据中提取规律
核心结论:学习方法是现代AI的核心(占60%),通过从数据中提取规律来实现智能,包括机器学习基础、人工神经网络、深度学习、生成式模型和强化学习五个层次。
核心问题:如何让机器从数据中自动学习规律,从而对新样本做出智能决策?如何设计能够学习的计算模型?如何设计能够处理图像、序列等不同类型数据的模型?如何设计能够生成新数据的模型?如何通过交互学习最优策略?
解决方案的逻辑:通过四个核心要素(数据、模型、准则、算法)和三种学习范式(有监督、无监督、强化学习),在有限数据中学习规律;通过神经元模型、网络结构和学习法则设计能够学习的计算模型;通过CNN处理图像数据,通过RNN/LSTM和文本嵌入处理序列数据,通过注意力机制和Transformer实现动态且高效的序列模型;通过学习数据的概率分布,使用不同的生成方法(玻尔兹曼机、自回归、VAE、GAN、扩散模型)生成新数据;通过MDP建模环境,通过奖励信号指导学习,通过价值函数和策略函数学习最优行为。
学习方法的发展脉络:
机器学习基础:
- 核心要素:数据(学什么)、模型(谁来学)、准则(什么是学得好)、算法(怎样才学得好)。就像学习的四个要素,缺一不可。
- 学习范式:有监督学习(有老师指导,有明确标签)、无监督学习(自己发现规律,无标签)、强化学习(通过试错学习,有延迟反馈)。根据数据的监督程度选择合适的学习方式。
- 评价与泛化:区分经验风险和期望风险,通过数据集划分、评价指标、正则化、结构风险最小化等策略,平衡拟合能力和泛化能力。就像学生不仅要记住练习题答案,还要能解决新题目。
人工神经网络基础:
- 三要素:神经元模型(输入加权求和+激活函数,模拟生物神经元)、网络结构(前馈、循环、图结构,组织神经元连接)、学习法则(监督、强化、无监督,调整权重来学习)。就像从生物启发开始,抽象和简化,形成可计算的学习模型。
- 感知器:最简单的可学习分类器,通过错误驱动的学习算法,在线性可分条件下自动学习分类边界。就像学生做错题后根据正确答案调整理解。
深度学习:
- CNN(卷积神经网络):像人眼识别图像,通过卷积操作(局部连接和参数共享)提取局部特征,通过池化操作(降维和不变性)提取关键信息,通过多层堆叠构建从局部到全局的层次化特征表示。从多个维度分析性能(准确率、速度、内存、鲁棒性),针对不同视觉任务(分类、检测、分割)设计相应架构。
- 序列处理:像人说话时会记住之前说了什么。通过RNN/LSTM建模序列的时序依赖和记忆结构(循环连接、门控机制),通过文本嵌入表示将序列元素(词汇、句子)转换为数值向量(Word2Vec、GloVe、BERT),两者结合实现从序列结构到序列元素的完整处理。
- 注意力机制与Transformer:像人看一幅画时会关注不同的部分,而不是平均地看所有部分。通过注意力机制(Query-Key-Value框架)实现动态关注,通过Transformer架构(自注意力+多头注意力+编码器-解码器)实现并行计算和全局依赖,通过GPT语言模型(自回归+大规模预训练)实现语言理解和生成。
生成式模型:
- 核心思路:通过学习数据的概率分布来生成新数据,就像不仅要能识别猫和狗,还要能生成新的猫和狗的图片。
- 发展脉络:从能量模型(玻尔兹曼机)到显式分布(自回归模型)再到隐式分布(GAN、扩散模型),从随机性到确定性,从顺序生成到并行生成。GAN通过生成器和判别器的对抗训练实现高质量数据生成,VAE通过潜在空间实现数据生成,扩散模型通过逐步去噪实现数据生成。
强化学习:
- 核心思路:通过与环境交互学习,根据奖励信号调整策略,就像通过试错学习,做对了有奖励,做错了有惩罚,逐步学会最优策略。
- 基础概念:MDP建模环境(状态、动作、奖励、转移概率),奖励信号是学习的唯一指导,价值函数评估状态和动作的长期价值,策略函数决定行为选择。
- 策略梯度方法:直接优化策略函数,REINFORCE通过蒙特卡洛方法估计策略梯度,Actor-Critic结合价值和策略,基线方法减少方差。
- 深度强化学习:结合深度学习和强化学习,如AlphaGo通过有监督学习学习人类经验初始化策略网络,通过强化学习(自我博弈)超越人类经验,通过价值函数评估局面,通过MCTS结合策略和价值选择最佳走法。
设计权衡:
- 模型复杂度 vs 泛化能力:复杂模型可能过拟合,简单模型可能欠拟合
- 数据量 vs 模型能力:需要足够的数据来训练复杂模型
- 拟合 vs 泛化:在训练数据上拟合得好 vs 在新数据上泛化得好
- 探索 vs 利用:在强化学习中,需要平衡探索新策略和利用已知好策略
- 生成质量 vs 多样性:高质量生成可能缺乏多样性,多样性的生成可能质量不高
学习方法60% 机器学习基础
四要素+三范式+评价泛化 人工神经网络基础
三要素+感知器 深度学习 生成式模型 强化学习 核心要素
数据/模型/准则/算法 学习范式
有监督/无监督/强化学习 评价与泛化
数据集划分/正则化/结构风险 神经元模型
输入加权+激活函数 网络结构
前馈/循环/图 学习法则
监督/强化/无监督 感知器
单层/多层/错误驱动 CNN
卷积/池化/多层堆叠 序列处理
RNN/LSTM+文本嵌入 注意力机制
Query-Key-Value Transformer
自注意力+多头注意力 GPT
自回归+大规模预训练 玻尔兹曼机
能量模型 自回归模型
顺序生成 VAE
潜在空间 GAN
对抗训练 扩散模型
逐步去噪 MDP
环境建模 奖励信号
学习指导 价值函数
评估选择 策略函数
行为选择 策略梯度
REINFORCE/Actor-Critic 深度强化学习
AlphaGo
3. 推理方法(Reasoning Methods):基于知识进行推导
核心结论:推理方法基于已有知识进行推导,从符号推理发展到不确定性推理,再到案例推理,核心是将知识转换为计算机可以处理的形式。
核心问题:如何基于已有知识进行推理,得出新结论?如何处理不确定性推理?如何基于过去的经验解决新问题?
解决方案的逻辑:通过符号表示(逻辑表示法、产生式系统、知识图谱)和逻辑推理(模型检查、推理规则、正向推理、反向推理)实现确定性推理;通过全概率推理、贝叶斯法则、贝叶斯网络处理不确定性推理;通过案例表示、相似性评价、调整、案例库维护实现基于经验的推理。
推理方法的发展脉络:
符号推理:
- 知识表示:将现实世界的知识转换为计算机可以理解的形式。逻辑表示法使用形式化的逻辑语言(命题逻辑、一阶逻辑、描述逻辑)表达知识,产生式系统使用IF-THEN规则表示知识,知识图谱通过节点和边表示实体及其关系。就像将自然语言翻译成计算机能理解的形式语言。
- 逻辑推理:基于逻辑规则进行严格推导。模型检查通过枚举所有可能的模型来验证推理结果,推理规则通过应用推理规则逐步推导出结论,正向推理从知识库出发生成新语句直到生成目标结论,反向推理从目标结论出发寻找支持该结论的语句。就像数学证明,从已知的公理和定理推导出新的结论。
不确定性推理:
- 全概率推理:通过边缘化(对所有其他变量求和)计算边缘概率,通过条件化(固定某些变量)计算条件概率。就像计算所有可能情况的概率。
- 贝叶斯法则:通过概率公式实现从因果推理到诊断推理的转换,就像医生诊断,基于症状推断疾病。
- 贝叶斯网络:通过有向无环图表示变量之间的依赖关系,利用条件独立性将指数级的联合概率分布压缩为线性级的条件概率分布,就像用网络图表示因果关系,提高推理效率。
案例推理:
- 核心思路:基于过去的经验解决新问题,就像医生看病,回忆过去见过的类似病例,参考之前的诊断和治疗方案,然后根据当前患者的具体情况调整治疗方案。
- 关键方法:案例表示与索引存储经验,相似性评价找到相似案例(基于"相似的问题具有相似的答案"的假设),调整将相似案例应用于新问题(参数调整、结构调整、替换调整),案例库维护不断学习新经验。
设计权衡:
- 符号 vs 数值:符号推理精确但难以处理不确定性,数值推理灵活但难以解释
- 规则 vs 数据:基于规则的系统可解释但需要人工编写,基于数据的系统自动学习但难以解释
- 精确 vs 近似:精确推理保证正确性但计算复杂,近似推理快速但可能不准确
- 可解释性 vs 效率:符号推理可解释性强但效率可能较低,概率推理效率高但可解释性较弱
推理方法20% 符号推理
知识表示+逻辑推理 不确定性推理
全概率推理+贝叶斯法则+贝叶斯网络 案例推理
案例表示+相似性评价+调整 知识表示
逻辑/规则/框架/图谱 逻辑推理
模型检查/推理规则/方向 全概率推理
边缘化+条件化 贝叶斯法则
因果到诊断 贝叶斯网络
条件独立性 案例表示
Flat/OO/Graph 相似性评价
k-NN/距离度量 调整
参数/结构调整
三、三大方法的关系与演进(Relationships & Evolution)
核心结论
方法关系:三大方法各有适用场景,现代AI系统往往融合多种方法。
演进逻辑:AI方法从符号智能时代(搜索+推理)演进到机器学习时代(学习),再到深度学习时代和大模型时代,呈现融合趋势。
1. 问题-方法映射(Problem-Method Mapping)
不同的问题需要不同的方法,三大方法各有适用场景:
AI问题 有明确解空间
路径规划、游戏 有大量数据
图像识别、语言理解 有知识库
专家系统、推理 搜索方法
BFS、A*、MCTS 学习方法
CNN、Transformer、GPT 推理方法
逻辑推理、贝叶斯网络
2. 方法的演进逻辑(Evolution Logic)
AI方法的发展遵循从简单到复杂、从单一到融合的演进逻辑,经历了四个发展阶段:
第一阶段:符号智能时代(1950s-1980s)
- 主要方法:搜索和推理
- 特点:基于规则和逻辑,可解释性强
- 局限:难以处理不确定性和复杂问题
第二阶段:机器学习时代(1980s-2010s)
- 主要方法:学习(有监督、无监督)
- 特点:从数据中学习,处理复杂模式
- 突破:神经网络、支持向量机等
第三阶段:深度学习时代(2010s-至今)
- 主要方法:深度学习(CNN、RNN、Transformer)
- 特点:多层神经网络,自动特征提取
- 突破:ImageNet、AlphaGo、GPT
第四阶段:大模型时代(2020s-至今)
- 主要方法:大规模预训练模型
- 特点:统一架构,多任务能力
- 突破:GPT-3、ChatGPT、多模态模型
融合趋势:
- 搜索+学习:AlphaGo结合MCTS和深度神经网络
- 学习+推理:大语言模型具备推理能力
- 多方法融合:现代AI系统往往结合多种方法
符号智能
搜索+推理 机器学习
从数据学习 深度学习
多层神经网络 大模型
统一架构 融合:搜索+学习
AlphaGo 融合:学习+推理
GPT 融合:多方法
现代AI系统
四、核心设计原理(Design Principles)
核心结论
设计原理的核心:AI方法的设计本质是在多个维度之间权衡,没有完美的算法,只有适合不同场景的算法。
三大方法的设计本质:
- 搜索:在完备性、最优性、效率之间权衡
- 学习:在模型复杂度、泛化能力、数据量之间权衡
- 推理:在精确性、可解释性、不确定性处理之间权衡
1. 搜索的本质:在权衡中找解
搜索的核心:首先通过问题形式化将实际问题转化为可搜索的形式化问题,然后通过不同的扩展策略和优化技术,在完备性、最优性、效率之间权衡。没有完美的搜索算法,只有适合不同场景的算法。
关键洞察:
- 问题形式化是基础:好的形式化是高效搜索的前提,状态空间、动作、目标测试、状态转移函数、路径代价五个要素共同构成搜索问题的形式化
- 扩展策略决定搜索特性:按层扩展(BFS)保证最短路径但内存消耗大,按代价扩展(UCS)保证代价最小,按深度扩展(DFS)节省内存但可能找不到解
- 优化技术提升效率:启发式函数、双向搜索、图搜索等技术提升效率;约束传播提前发现冲突减少搜索空间;α-β剪枝减少博弈搜索节点数;MCTS通过随机模拟评估决策
- 局部搜索跳出局部最优:模拟退火通过概率接受机制允许暂时接受较差解,遗传算法通过进化机制从多个解出发并行搜索
- 设计权衡是核心:需要在完备性、最优性、效率之间找到平衡;在局部改进和全局探索之间权衡;在搜索空间大小和评估精度之间权衡
2. 学习的本质:从数据中提取规律
学习的核心:通过数据、模型、准则、算法四个要素,从有限数据中学习规律,实现对未知样本的预测。从人工神经网络的三要素(神经元模型、网络结构、学习法则)到深度学习的各种架构,再到生成式模型和强化学习,体现了从简单到复杂、从静态到动态、从判别到生成的演进。
关键洞察:
- 数据驱动是核心:现代AI主要依赖数据,数据质量和数量决定模型能力。通过四个核心要素(数据、模型、准则、算法)和三种学习范式(有监督、无监督、强化学习),在有限数据中学习规律
- 模型设计决定能力:不同的模型结构适合不同的问题。CNN通过局部连接和参数共享处理图像,RNN/LSTM通过循环连接处理序列,Transformer通过注意力机制实现并行和全局,生成式模型通过学习概率分布生成新数据
- 泛化能力是目标:学习的最终目标是泛化,在训练集上表现好不等于在测试集上表现好。通过数据集划分、评价指标、正则化、结构风险最小化等策略,平衡拟合能力和泛化能力
- 从生物到计算的演进:人工神经网络受生物神经系统启发,但进行了简化和抽象。从简单的M-P模型到复杂的多层网络,从单层感知器到多层感知器,从线性分类到非线性分类
- 深度学习突破:通过多层结构自动提取特征,避免了手工特征设计的困难。CNN构建层次化特征表示,RNN/LSTM建模序列结构,Transformer实现动态关注和并行计算
- 生成式模型的核心:通过学习数据的概率分布来生成新数据,不同的生成方法(玻尔兹曼机、自回归、VAE、GAN、扩散模型)通过不同的方式从概率分布中生成样本
- 强化学习的核心:通过与环境交互学习,根据奖励信号调整策略。MDP建模环境,价值函数评估长期价值,策略函数决定行为选择,策略梯度方法直接优化策略
3. 推理的本质:基于知识进行推导
推理的核心:将知识转换为计算机可以处理的形式,基于规则或概率进行推导。从符号推理到不确定性推理,再到案例推理,体现了从确定性到不确定性、从规则到概率、从规则到经验的演进。
关键洞察:
- 知识表示是基础:如何表示知识是推理的基础。符号推理通过逻辑表示法、产生式系统、知识图谱将知识转换为计算机可处理的形式;不确定性推理通过概率分布表示不确定知识;案例推理通过案例表示存储经验
- 符号推理的核心:通过符号表示和逻辑推理,从已知知识推导出新知识。知识表示提供基础,逻辑推理提供应用,两者协同工作形成完整的符号推理系统
- 不确定性推理的核心:基于概率论处理不确定信息,从已知证据推导出结论的概率。全概率推理处理完整联合分布,贝叶斯法则实现反向推理,贝叶斯网络利用条件独立性提高效率
- 案例推理的核心:基于过去的经验解决新问题,通过相似性评价找到相似案例,通过调整适应新问题。案例推理模拟了人类推理和思维的方法,通过案例库不断学习新经验
- 三种推理方式互补:符号推理适合确定性知识,不确定性推理适合不确定信息,案例推理适合基于经验解决问题。现代AI系统往往融合多种推理方法
4. 设计权衡的核心思想(Design Trade-offs)
AI设计的核心:没有完美的算法,只有适合不同场景的算法。设计AI系统时需要在多个维度之间权衡:
搜索方法的设计权衡:
- 完备性 vs 效率:保证找到解 vs 快速找到解
- 最优性 vs 空间:找到最优解 vs 节省内存
- 系统搜索 vs 启发式:全面探索 vs 有方向搜索
- 局部改进 vs 全局探索:快速改进当前解 vs 跳出局部最优
- 搜索空间 vs 评估精度:巨大搜索空间 vs 精确评估函数
学习方法的设计权衡:
- 模型复杂度 vs 泛化能力:复杂模型可能过拟合,简单模型可能欠拟合
- 数据量 vs 模型能力:需要足够的数据来训练复杂模型
- 拟合 vs 泛化:在训练数据上拟合得好 vs 在新数据上泛化得好
- 探索 vs 利用:在强化学习中,需要平衡探索新策略和利用已知好策略
- 生成质量 vs 多样性:高质量生成可能缺乏多样性,多样性的生成可能质量不高
- 表达能力 vs 计算效率:复杂模型表达能力强但计算慢,简单模型计算快但能力弱
推理方法的设计权衡:
- 符号 vs 数值:符号推理精确但难以处理不确定性,数值推理灵活但难以解释
- 规则 vs 数据:基于规则的系统可解释但需要人工编写,基于数据的系统自动学习但难以解释
- 精确 vs 近似:精确推理保证正确性但计算复杂,近似推理快速但可能不准确
- 可解释性 vs 效率:符号推理可解释性强但效率可能较低,概率推理效率高但可解释性较弱
五、课程实践:理论结合实践(Course Practice)
核心结论
实践价值:课程通过四个实践项目,将理论知识应用到实际问题中,加深对AI方法的理解。
实践项目:课程包括四个实践项目,分别对应搜索、学习、推理三大方法:
- 搜索算法实践:MCTS黑白棋 - 理解搜索算法在游戏中的应用
- 深度学习实践:CNN/ResNet图像识别 - 理解深度学习在计算机视觉中的应用
- 强化学习实践:GRPO/PPO控制任务 - 理解强化学习在控制问题中的应用
- Agent应用实践:基于大模型的RAG/Agent系统 - 理解现代AI应用开发
这些实践项目帮助理解理论知识在实际问题中的应用,加深对AI方法的理解。
📝 课程总结
核心结论(金字塔顶层回顾)
课程核心:人工智能原理是AI专业的导论课程,通过搜索(20%)、学习(60%)、推理(20%)三大方法实现智能,其中学习是核心。
核心要点:
- 课程定位:AI专业的导论课程,为后续应用课程提供理论基础
- 智能本质:从具身智能视角理解,包括耳聪、目明、心灵、手巧、伶俐五个维度
- 三大方法:搜索(20%)、学习(60%)、推理(20%),学习是核心
- 演进逻辑:从符号智能到机器学习,从深度学习到大模型,方法不断融合
- 设计原理:AI方法的设计本质是在多个维度之间权衡,没有完美的算法
知识地图
人工智能原理课程 课程定位
导论课程 智能本质
具身智能视角 三大核心方法 搜索20%
问题空间找解 学习60%
从数据学习规律 推理20%
基于知识推导 问题形式化
状态/动作/目标/转移/代价 基础搜索
无信息/启发式/局部搜索 高级搜索
约束满足/博弈搜索/MCTS 机器学习基础
四要素+三范式+评价泛化 人工神经网络
三要素+感知器 深度学习
CNN/序列处理/Transformer/GPT 生成式模型
玻尔兹曼机/自回归/VAE/GAN/扩散 强化学习
MDP/价值/策略/深度强化学习 符号推理
知识表示+逻辑推理 不确定性推理
全概率+贝叶斯法则+贝叶斯网络 案例推理
案例表示+相似性+调整 课程实践
4个项目
关键洞察
-
学习是核心:现代AI主要依赖数据驱动的学习方法,占60%比重。通过四个核心要素(数据、模型、准则、算法)和三种学习范式(有监督、无监督、强化学习),在有限数据中学习规律,实现对未知样本的预测和决策。
-
问题形式化是搜索的基础:搜索方法首先需要将实际问题形式化为搜索问题,通过定义状态空间、动作、目标测试、状态转移函数、路径代价五个核心要素,将实际问题转化为可搜索的形式化问题。好的形式化是高效搜索的前提。
-
设计权衡是核心:AI方法的设计本质是在多个维度之间权衡,没有完美的算法,只有适合不同场景的算法。搜索在完备性、最优性、效率之间权衡;学习在模型复杂度、泛化能力、数据量之间权衡;推理在精确性、可解释性、不确定性处理之间权衡。
-
方法演进体现融合趋势:从符号智能到机器学习,从深度学习到大模型,AI方法不断演进和融合。现代AI系统往往结合搜索、学习、推理多种方法,如AlphaGo结合MCTS和深度神经网络,GPT结合学习和推理能力。
-
从局部到全局的演进:搜索从无信息到启发式,从局部搜索到全局优化;学习从单层感知器到多层网络,从局部特征到全局特征,从顺序处理到并行计算;推理从符号到概率,从确定性到不确定性。这种演进使得AI方法能够处理越来越复杂的问题。
-
数据驱动与知识驱动结合:学习方法主要依赖数据驱动,从数据中学习规律;推理方法主要依赖知识驱动,基于已有知识进行推导。现代AI系统往往结合两者,如大语言模型通过大规模预训练学习通用表示,同时具备推理能力。
-
实践重要:通过实践项目加深对理论的理解,理论结合实践。四个实践项目分别对应搜索、学习、推理三大方法,帮助理解理论知识在实际问题中的应用。
学习建议
- 建立知识框架:先理解AI三大核心方法的整体框架
- 重点突出:重点关注学习方法(60%),这是现代AI的核心
- 理解演进:理解从符号智能到机器学习,从深度学习到大模型的发展逻辑
- 实践应用:通过实践项目加深理解,理论结合实践
- 持续学习:AI领域发展迅速,需要持续学习新知识
💡 提示:本课程是AI学习的起点,建立扎实的基础对后续学习至关重要。建议在学习过程中多思考、多实践、多总结,理解AI方法的设计逻辑和演进关系,而不是死记硬背技术细节。