第 1 章 绪论
1.1 人工智能的起源
- 达特茅斯会议 :1956 年由麦卡锡、明斯基、香农、罗契斯特等提出"人工智能"概念
- 核心定义:以机器为载体实现的人类智能延伸
- 研究目标:让机器具备认知、思考和学习能力
1.2 可计算载体:形式化与机械化
-
荀子的智能观:知觉、智慧、本能、智能:从感知、到理解、到认知、到决策与行动
-
计算的诞生:从手工计算到自动计算、从可计算到不可计算
-
形式化系统三要素:
-
完备性:所有能够从该形式化系统推导出来
-
一致性:一个命题不可能同时为真或为假
-
可判定性:算法在有限步内判定命题的真伪
-
-
哥德尔不完备定理:形式系统无法兼具完备性与一致性
-
计算理论突破:
-
图灵机:机械化计算的理论模型
-
邱奇-图灵论题:凡是可计算的函数都可以用图灵机计算
1.3 人工智能的分类
1.3.1 从典型应用对人工智能分类
-
**符号学派:**人工智能主流方法,符号主义人工智能
- 符号主义人工智能为核心的逻辑推理
- 物理符号系统(即符号操作系统)假设和有限合理性原理,关系和属性符号化
-
**联结学派:**联结主义(数据驱动的学习)
- 用大数据(有监督学习):挖掘数据所蕴含的内在模式
- 机器挖掘得到的视觉模式
-
**行为学派:**行为主义(从经验中学习)
| 学习模式 | 代替了 | 不是因为 |
|---|---|---|
| 符号主义 (用规则教) | 与人类逻辑推理相似, 解释性强 | 难以构建完备的知识规则 库 |
| 联结主义 (用数据学) | 直接从数据中学 | 以深度学习为例:依赖于 数据、解释性不强 |
| 行为主义 (用问题引导) | 从经验中进行能力的 持续学习 | 非穷举式搜索而需更好策略 |
**例子:**从AlphaGo到AlphaGo Zero(元)
- 典型的规则、数据和行为相互协调的智能算法
- 深度学习:从人类选手围棋比赛得到训练数据
- 强化学习:
- 蒙特卡洛树搜索
- 深度学习有效编码感知棋面
- 强化学习主力序贯决策行动
- 蒙特卡洛搜索支持从浩渺样本空间中采样 (st→atst+1→at+1st+2...→aTsT)(s_{t} \stackrel{a_{t}}{\to } s_{t+1} \stackrel{a_{t+1}}{\to } s_{t+2} ... \stackrel{a_{T}}{\to } s_{T})(st→atst+1→at+1st+2...→aTsT)
1.3.2 从智能角度对人工智能分类
1.3.3 从典型应用对人工智能进行分类
1.4 智能计算方法
1.3.1 符号主义(逻辑推理)
-
核心方法:命题逻辑、谓词逻辑、知识图谱、因果推理
-
推理类型:
-
归纳推理:特殊 → 一般(例:语言实例归纳)
-
演绎推理:一般 → 特殊(例:三段论)
-
因果推理:结构因果模型(关联 → 干预 → 反事实)
-
专家系统:基于符号规则的知识推理体系
-
1.3.2 问题求解(搜索算法)
- 算法分类 :
-
无信息搜索:广度优先/深度优先搜索
-
启发式搜索:A*算法、贪婪最佳优先
-
对抗搜索:Alpha-Beta 剪枝、蒙特卡洛树搜索
-
博弈场景应用:围棋、国际象棋策略优化
-
1.3.3 数据驱动(机器学习)
-
监督学习:训练数据标注(线性回归、SVM、决策树)
-
无监督学习:数据聚类/降维(K-Means、主成分分析)
-
深度学习:端到端特征学习(CNN、RNN)
1.3.4 行为主义(强化学习)
-
核心机制:环境交互 → 序列决策 → 奖励反馈
-
Q 学习:状态-行为效用表构建
-
深度强化学习:神经网络参数化策略
1.3.5 博弈对抗(群体智能)
-
博弈论基础:纳什均衡理论
-
典型应用:非完全信息博弈(德州扑克 AI)
-
混合方法:AlphaGo 融合搜索+深度学习+强化学习
1.5 人工智能的三次低谷
- 第一次低谷:1973年英国发表James Lighthill 报告
- 该报告评判AI基础研究中A自动机、B机器人和C中央神经系统
- 报告得出结论:A和C的研究有价值,但进展令人失望。B的研 究没有价值,进展非常令人失望。建议取消B的研究。
- **教训:**AI尚属婴儿期,难以测算准确
- 第二次低谷:日本智能(第五代)计算机研制失败
- 1982年开始,1992年结束
- **教训:**驱动AI的发展要靠软件、数据和只是,而非只依靠硬件
- 第三次低谷:知识词典日趋势微、网络百科兴起
- **教训:**只是不能靠专家表达,要自动学习
1.6 现状与挑战
-
领域局限:当前 AI 属于"弱人工智能"范畴
-
关键技术障碍:
-
开放式问题的动态决策能力不足
-
人类直觉与迁移学习的机理未明
-
发展趋势:
-
混合增强智能:人机协同强化
-
类脑计算:神经形态架构探索
-
伦理治理:AI 可解释性与安全性研究