07844_人工智能导论_复习资料

广东省高等教育自学考试《人工智能导论》课程学习资料

(课程代码:07844)

第1章绪论

(一)人工智能的起源和定义

领会:人工智能的起源和多样化的人工智能定义。

(二)人工智能的流派

识记:人工智能的三个流派,概念的定义。

领会:人工智能三个流派之间的关系,概念的三个功能。

(三)人工智能的进展和发展趋势

领会:人工智能的发展与三个流派技术的融合。

四、本章重点、难点

本章的重点:人工智能三个流派的技术思想。

本章的难点:人工智能三个流派的思想及其发展限制。

第2章概念表示

(一)经典概念理论

识记:经典概念的组成。

(二)数理逻辑

领会:什么是命题,及命题真假的判断。

简单应用:命题的谓词符号化。

(三)集合论

识记:集合的两种表示方法。

领会:集合各种关系的定义。

四、本章重点、难点

本章的重点:命题的概念、表示和判断,集合的表示和各种关系。

本章的难点:命题的谓词符号化和集合的关系定义。

第3章知识表示

(一)知识与知识表示的概念

识记:知识和规则的概念、知识的特性、知识表示的概念。

(二)产生式表示法

识记:规则和事实的产生式表示方法。

领会:产生式系统的组成及其关系。

简单应用:用产生式表示规则或事实。

(三)框架表示法

识记:框架的概念和组成结构。

领会:框架的一般表示形式。

简单应用:用框架表示知识。

(四)状态空间表示法

识记:状态空间的概念和表示。

综合应用:状态空间的图描述。

四、本章重点、难点

本章的重点:知识表示的概念和产生式、框架、状态空间三种表示方法。

本章的难点:状态空间的图描述。

第4章知识图谱

(一)引言:从语义搜索认识知识图谱

识记:知识图谱的概念和组成。

(二)万维网知识表示

识记:本体的定义和特性。

领会:语义网和万维网的区别,资源描述框架RDF。

简单应用:用可扩展标记语言XML组织互联网信息。

(三)知识图谱的现状及发展

领会:当前互联网几个常用的知识图谱。

(四)知识图谱的生命周期

识记:互联网时代知识在数据中的分布特点。

领会:知识图谱的生命周期。

四、本章重点、难点

本章的重点:本体和互联网环境下的知识表示方法,知识图谱的生命周期和典型应用。

本章的难点:本体和语义网知识表示。

第5章搜索技术

(一)图搜索策略

领会:图搜索和状态图的关系

(二)盲目搜索

识记:盲目搜索的概念和两种常用的盲目搜索方法:深度优先搜索和宽度优先搜索

领会:深度优先搜索和宽度优先搜索两种方法的原理及优缺点

简单应用:用盲目搜索的方法在状态图中求解。

(三)启发式搜索

识记:启发式搜索的概念和两种常用的盲目搜索方法:A算法和A*算法

综合应用:根据给定的启发函数,用启发式搜索的方法在状态图中求解。

四、本章重点、难点

本章的重点:盲目搜索和启发式搜索的特点及其各种搜索技术

本章的难点:运用各种搜索技术求解问题。

第6章机器学习

(一)机器学习的发展

领会:机器学习发展的几个重要节点。

(二)监督学习

识记:监督学习的概念。

领会:K-近邻算法、决策树算法和支持向量机算法的原理。

简单应用:用决策树算法解决分类问题。

(三)无监督学习

识记:无监督学习的概念。

领会:无监督学习和监督学习的区别及其各自的使用场景,聚类和自编码器算法的原理。

(四)弱监督学习

识记:三种典型的弱监督学习算法:半监督学习、迁移学习和强化学习。

四、本章重点、难点

本章的重点:机器学习的各种方法及其原理。

本章的难点:运用监督学习和无监督学习方法解决应用问题。

第7章人工神经网络与深度学习

(一)神经网络的发展历史

领会:深度学习的特点。

(二)神经元与神经网络

识记:神经元数学模型,人工神经网络的分类。

领会:常用的激励函数及特点。

(三)BP神经网络及其学习算法

领会:BP神经网络结构。

简单应用:BP学习算法的实现。

综合应用:BP神经网络在模式识别中的应用。

(四)卷积神经网络

领会:卷积神经网络结构。

简单应用:卷积神经网络的卷积运算。

四、本章重点、难点

本章的重点:神经元数据模型和经典的人工神经网络结构

本章的难点:BP神经网络和卷积神经网络的实现及其应用

第8章专家系统

(一)专家系统概述

识记:专家系统的定义。

领会:专家系统的基本结构。

(二)推理方法

识记:推理方法的分类。

简单应用:用正向推理或逆向推理的方法基于专家系统进行推理。

(三)一个简单的专家系统

综合应用:根据已知的知识构建基于规则的专家系统知识库,并完成问题的推理。

(四)非确定性推理

领会:在非确定性推理中的事实表示、规则表示、逻辑运算、规则运算和规则的合成。

四、本章重点、难点

本章的重点:专家系统的概念、结构和基本的推理方法。

本章的难点:专家系统的知识库构建和知识推理。

第9章计算机视觉

(一)计算机视觉概述

领会:计算机视觉包含的各种任务。

(二)数字图像的类型及机内表示

领会:图像在计算机中的表示方法,像素点数值的意义。

(三)常用计算机视觉模型和关键技术

领会:浅层视觉模型的处理流程、经典的全局特征提取GIST特征和局部特征提取LBP、基于深度模型实现的视觉任务。

简单应用:局部二值模式LBP算子的计算原理。

(四)应用实例:人脸识别技术

简单应用:人脸识别的典型流程及每个步骤要达到的目标。

四、本章重点、难点

本章的重点:图像的计算机表示及计算机对图像的处理原理和一般化流程。

本章的难点:特征提取的作用及其计算实现。

第10章自然语言处理

(一)自然语言处理概述

领会:自然语言处理的基本任务和自然语言处理发展的三个阶段。

(二)机器翻译

识记:完全基于注意力网络的神经翻译模型Transformer。

领会:机器翻译发展的四个阶段及其核心思想,注意力机制在机器翻译中的作用。

(三)自然语言人机交互

领会:对话系统和聊天机器人的共性和区别,对话系统的三个模块及其功能。聊天机器人基于技术的分类。

简单应用:检索式聊天机器人的系统架构,生成式聊天机器人的模型架构。

(四)智能问答

领会:智能问答任务的分类。

简单应用:基于知识图谱的问答系统设计。

四、本章重点、难点

本章的重点:自然语言处理的发展,自然语言处理的三个典型任务:机器翻译、自然语言人机交互和智能问答。

本章的难点:自然语言处理任务的核心算法理解。

第11章多智能体系统

(一)智能体

领会:智能体的定义和性质,智能体和其他软件实体的区别。

(二)智能体的具体结构

识记:智能体的5种实现方式。

领会:智能体的包孕结构和基于BDI逻辑的结构。

(三)多智能体协商

领会:纳什均衡和帕里托优策略思想,多智能体协商三种工具:投票、拍卖和谈判。

简单应用:智能体用计分投票决策。

四、本章重点、难点

本章的重点:多智能体的概念、实现及其协商方式。

本章的难点:投票策略的计算机实现。


第1章绪论

(一)人工智能的起源和定义

领会:人工智能的起源和多样化的人工智能定义。

【详细解释】

  • 人工智能的起源:人工智能作为一门学科正式诞生于1956年的达特茅斯会议。会议由麦卡锡、明斯基、香农等人发起,首次提出了"Artificial Intelligence"(人工智能)这一术语,并确定了人工智能的研究目标。在此之前,图灵于1950年发表的《计算机器与智能》一文提出了著名的"图灵测试",为人工智能的发展奠定了理论基础。20世纪40-50年代,神经生理学、控制论、信息论和计算机科学的发展为人工智能的诞生提供了必要的理论和技术支持。

  • 多样化的人工智能定义:由于人工智能是一个涉及多个学科的交叉领域,不同学者从不同角度对其进行了定义:

    1. 能力角度:人工智能是使机器具备像人一样思考、学习和解决问题的能力。
    2. 模拟角度:人工智能是模拟人类智能活动的计算机科学分支。
    3. 学科角度:人工智能是研究如何使计算机去做过去只有人才能做的智能工作的学科。
    4. 目标角度:人工智能的目标是创建能够表现出与人类智能相关的特性(如推理、学习、感知、理解、交流等)的智能系统。

(二)人工智能的流派

识记:人工智能的三个流派,概念的定义。

【详细解释】

  • 人工智能的三个流派
    1. 符号主义:又称逻辑主义或计算机学派,认为人工智能源于数理逻辑。该流派主张用符号表示知识,通过符号的逻辑运算来模拟人类的认知过程。符号主义的核心是"知识表示"和"逻辑推理",代表成果有专家系统和知识工程。
    2. 连接主义:又称仿生学派或生理学派,认为人工智能源于仿生学,特别是对人脑神经网络的研究。该流派主张通过模拟大脑的神经网络结构和功能来实现智能,核心是神经网络模型,代表成果有人工神经网络和深度学习。
    3. 行为主义:又称进化主义或控制论学派,认为人工智能源于控制论。该流派主张通过模拟生物的行为和进化过程来实现智能,强调"感知-动作"模式,核心是自适应和进化计算,代表成果有机器人学和强化学习。

领会:人工智能三个流派之间的关系,概念的三个功能。

【详细解释】

  • 三个流派之间的关系

    1. 互补关系:三个流派从不同角度研究人工智能,各自有其优势和局限性,相互补充。符号主义擅长逻辑推理和知识表示,连接主义擅长模式识别和学习,行为主义擅长自适应和实时反应。
    2. 融合趋势:随着人工智能的发展,三个流派逐渐融合,形成了混合智能系统,综合利用各流派的技术优势,提高系统的智能水平。
  • 概念的三个功能

    1. 指名功能:由符号主义实现,通过符号表示和逻辑推理来识别和命名事物,解决"是什么"的问题。
    2. 指心功能:由连接主义实现,通过模拟大脑的认知过程来理解和处理信息,解决"为什么"的问题。
    3. 指物功能:由行为主义实现,通过感知和动作来与环境交互,解决"怎么做"的问题。

(三)人工智能的进展和发展趋势

领会:人工智能的发展与三个流派技术的融合。

【详细解释】

  • 人工智能的发展阶段

    1. 早期阶段(1956-1970年代):以符号主义为主导,主要研究逻辑推理和问题求解,如通用问题求解器(GPS)和几何定理证明。
    2. 瓶颈阶段(1970-1980年代):由于计算能力限制和知识获取困难,人工智能研究陷入低谷,称为"AI winter"。
    3. 专家系统阶段(1980-1990年代):符号主义再次兴起,专家系统在医疗、工程等领域取得成功,但仍存在知识获取瓶颈。
    4. 连接主义复兴阶段(1990-2010年代):随着计算能力的提升和深度学习算法的突破,连接主义成为主流,在图像识别、语音识别等领域取得重大进展。
    5. 融合发展阶段(2010年代至今):三个流派技术相互融合,形成了混合智能系统,如深度学习与专家系统结合、强化学习与神经网络结合等。
  • 三个流派技术的融合趋势

    1. 符号主义与连接主义融合:将知识表示与深度学习结合,如知识图谱与神经网络结合,提高系统的推理能力和可解释性。
    2. 连接主义与行为主义融合:将深度学习与强化学习结合,如深度强化学习,实现智能体在复杂环境中的自主学习和决策。
    3. 符号主义与行为主义融合:将逻辑推理与进化计算结合,如遗传编程与专家系统结合,提高系统的自适应能力和问题求解能力。

四、本章重点、难点

本章的重点:人工智能三个流派的技术思想。

本章的难点:人工智能三个流派的思想及其发展限制。

【简答题】

  1. 简述人工智能的三个流派及其核心思想。

    参考答案:人工智能的三个流派分别是符号主义、连接主义和行为主义。符号主义认为人工智能源于数理逻辑,主张用符号表示知识,通过逻辑运算模拟人类认知;连接主义认为人工智能源于对人脑神经网络的研究,主张通过模拟神经网络结构和功能实现智能;行为主义认为人工智能源于控制论,主张通过模拟生物的行为和进化过程实现智能。

  2. 简述人工智能概念的三个功能及其实现流派。

    参考答案:人工智能概念的三个功能分别是指名功能、指心功能和指物功能。指名功能由符号主义实现,通过符号表示和逻辑推理识别和命名事物;指心功能由连接主义实现,通过模拟大脑认知过程理解和处理信息;指物功能由行为主义实现,通过感知和动作与环境交互。

【应用题】

  1. 结合人工智能三个流派的技术思想,分析如何构建一个智能医疗诊断系统。
    参考答案:构建智能医疗诊断系统可结合三个流派的技术优势:
  • 符号主义:利用知识表示技术构建医学知识库,包含疾病症状、诊断规则等,通过逻辑推理进行初步诊断。
  • 连接主义:使用深度学习技术处理医学影像(如CT、MRI)和生理信号(如心电图),实现疾病的辅助诊断。
  • 行为主义:结合强化学习技术,使系统在与患者交互过程中不断学习和优化诊断模型,提高诊断准确性。
    通过融合三个流派的技术,系统既能利用专家知识进行逻辑推理,又能通过深度学习处理复杂数据,还能通过强化学习不断改进,从而实现更准确、更智能的医疗诊断。
  1. 分析符号主义、连接主义和行为主义在智能机器人领域的应用及其融合方式。
    参考答案:
  • 符号主义应用:为机器人提供逻辑推理能力,使其能够理解任务指令和环境信息,如基于规则的路径规划。
  • 连接主义应用:为机器人提供感知能力,如通过计算机视觉识别物体和环境,通过语音识别理解人类命令。
  • 行为主义应用:为机器人提供自适应能力,如通过强化学习学习行走、抓取等动作技能。
    融合方式:
  • 符号主义与连接主义融合:用神经网络处理感知数据,将处理结果转化为符号表示,再通过逻辑推理进行决策。
  • 连接主义与行为主义融合:用深度强化学习训练机器人,使其在感知环境的同时学习最优行为策略。
  • 符号主义与行为主义融合:用进化算法优化逻辑规则,使机器人能够适应动态环境变化。

通过这种融合方式,智能机器人能够具备更全面的智能,在复杂环境中完成各种任务。

第2章概念表示

(一)经典概念理论

识记:经典概念的组成。

【详细解释】经典概念由内涵和外延两部分组成:

  • 内涵:是概念所反映的事物的本质属性,即概念的含义,回答"什么是"的问题。例如,"人"的内涵是"能制造和使用工具进行劳动的高等动物"。
  • 外延 :是概念所反映的事物的范围,即概念所包含的具体对象,回答"哪些是"的问题。例如,"人"的外延包括古今中外所有的人。
    内涵和外延之间存在反变关系:内涵越丰富,外延越狭窄;内涵越简单,外延越广泛。

(二)数理逻辑

领会:什么是命题,及命题真假的判断。

【详细解释】

  • 命题的定义:命题是一个非真即假的陈述句。命题必须满足两个条件:一是陈述句,二是具有唯一的真值(真或假)。
  • 命题真假的判断
    1. 对于简单命题,直接根据事实判断其真假。例如,"太阳从东方升起"是真命题,"2+2=5"是假命题。
    2. 对于复合命题,根据组成它的简单命题的真假和逻辑连接词的含义来判断。例如,"如果今天下雨,那么我不去上班",如果"今天下雨"为真且"我不去上班"为假,则该复合命题为假。
    3. 经典逻辑中,命题的真值只有"真"(通常用T或1表示)和"假"(通常用F或0表示)两种状态。

简单应用:命题的谓词符号化。

【详细解释】命题的谓词符号化是将自然语言中的命题转化为谓词逻辑的形式,主要包括以下步骤:

  1. 确定个体词:表示具体或抽象的个体的词,包括个体常元和个体变元。个体常元用小写字母a, b, c等表示具体的个体;个体变元用小写字母x, y, z等表示抽象的个体。
  2. 确定谓词:表示个体性质或个体之间关系的词,用大写字母P, Q, R等表示。例如,P(x)表示"x是学生",Q(x, y)表示"x大于y"。
  3. 确定量词:表示个体数量的词,包括全称量词(∀)和存在量词(∃)。全称量词∀表示"所有的",存在量词∃表示"存在某个"。
  4. 符号化命题:将个体词、谓词和量词组合起来表示命题。

例如:

  • 命题"所有的人都是要死的"可符号化为:∀x(H(x)→D(x)),其中H(x)表示"x是人",D(x)表示"x是要死的"。
  • 命题"存在一个学生喜欢数学"可符号化为:∃x(S(x)∧M(x)),其中S(x)表示"x是学生",M(x)表示"x喜欢数学"。

(三)集合论

识记:集合的两种表示方法。

【详细解释】集合的两种基本表示方法是:

  1. 列举法:又称枚举法,将集合中的所有元素一一列举出来,并用花括号{}括起来。例如,集合A={1, 2, 3, 4, 5}表示包含元素1, 2, 3, 4, 5的集合;集合B={a, b, c}表示包含元素a, b, c的集合。列举法适用于元素个数有限或元素个数无限但有规律的集合。
  2. 描述法:又称特征性质法,用集合中元素的共同特征来描述集合,形式为{x | P(x)},其中P(x)表示元素x所满足的条件。例如,集合C={x | x是正整数且x≤5}表示包含所有不大于5的正整数的集合,即{1, 2, 3, 4, 5};集合D={x | x是偶数}表示包含所有偶数的集合。描述法适用于元素个数无限或元素个数较多的集合。

领会:集合各种关系的定义。

【详细解释】集合之间的基本关系包括:

  1. 子集:如果集合A中的所有元素都属于集合B,则称A是B的子集,记作A⊆B。例如,集合A={1, 2},集合B={1, 2, 3},则A⊆B。
  2. 真子集:如果集合A是集合B的子集,且集合B中至少有一个元素不属于A,则称A是B的真子集,记作A⊂B。例如,集合A={1, 2},集合B={1, 2, 3},则A⊂B。
  3. 相等:如果集合A和集合B包含相同的元素,则称A和B相等,记作A=B。例如,集合A={1, 2},集合B={2, 1},则A=B。
  4. 交集:由属于集合A且属于集合B的所有元素组成的集合,记作A∩B,即A∩B={x | x∈A且x∈B}。例如,集合A={1, 2, 3},集合B={2, 3, 4},则A∩B={2, 3}。
  5. 并集:由属于集合A或属于集合B的所有元素组成的集合,记作A∪B,即A∪B={x | x∈A或x∈B}。例如,集合A={1, 2, 3},集合B={2, 3, 4},则A∪B={1, 2, 3, 4}。
  6. 补集:设全集为U,由属于U但不属于集合A的所有元素组成的集合,记作A'或∁_U A,即A'={x | x∈U且x∉A}。例如,全集U={1, 2, 3, 4, 5},集合A={1, 2, 3},则A'={4, 5}。

四、本章重点、难点

本章的重点:命题的概念、表示和判断,集合的表示和各种关系。

本章的难点:命题的谓词符号化和集合的关系定义。

【简答题】

  1. 简述经典概念的组成及其关系。

    参考答案:经典概念由内涵和外延两部分组成。内涵是概念所反映的事物的本质属性,回答"什么是"的问题;外延是概念所反映的事物的范围,回答"哪些是"的问题。内涵和外延之间存在反变关系:内涵越丰富,外延越狭窄;内涵越简单,外延越广泛。

  2. 简述命题的定义及其真假判断的方法。

    参考答案:命题是一个非真即假的陈述句,必须满足两个条件:一是陈述句,二是具有唯一的真值。命题真假的判断方法:对于简单命题,直接根据事实判断其真假;对于复合命题,根据组成它的简单命题的真假和逻辑连接词的含义来判断。经典逻辑中,命题的真值只有"真"和"假"两种状态。

【应用题】

  1. 将下列命题符号化为谓词逻辑的形式:
    (1) 所有的计算机都需要电源。
    (2) 有的学生喜欢编程。
    (3) 张三是一名工程师。

参考答案:

(1) 设C(x)表示"x是计算机",P(x)表示"x需要电源",则符号化为:∀x(C(x)→P(x))

(2) 设S(x)表示"x是学生",L(x)表示"x喜欢编程",则符号化为:∃x(S(x)∧L(x))

(3) 设a表示"张三",E(x)表示"x是工程师",则符号化为:E(a)

  1. 设全集U={1, 2, 3, 4, 5, 6, 7, 8, 9, 10},集合A={1, 2, 3, 4, 5},集合B={2, 4, 6, 8, 10},求:
    (1) A∩B
    (2) A∪B
    (3) A'
    (4) B'

参考答案:

(1) A∩B是由属于A且属于B的所有元素组成的集合,即A∩B={2, 4}

(2) A∪B是由属于A或属于B的所有元素组成的集合,即A∪B={1, 2, 3, 4, 5, 6, 8, 10}

(3) A'是由属于U但不属于A的所有元素组成的集合,即A'={6, 7, 8, 9, 10}

(4) B'是由属于U但不属于B的所有元素组成的集合,即B'={1, 3, 5, 7, 9}

第3章知识表示

(一)知识与知识表示的概念

识记:知识和规则的概念、知识的特性、知识表示的概念。

【详细解释】

  • 知识的概念:知识是人类在实践中认识客观世界(包括人类自身)的成果,它包括事实、信息、经验、规律、法则和技能等。在人工智能中,知识是指能够被计算机处理的、对问题求解有帮助的信息。
  • 规则的概念:规则是一种表示知识的形式,通常表示为"如果...那么..."(IF...THEN...)的形式,其中"如果"部分是前提条件,"那么"部分是结论或动作。规则是知识表示中最常用的形式之一,特别是在产生式系统中。
  • 知识的特性
    1. 相对正确性:知识是在一定条件下形成的,只在特定条件下才是正确的。例如,"水在100℃沸腾"在标准大气压下是正确的,但在高原地区则不成立。
    2. 不确定性:知识可能存在不确定性,包括随机性、模糊性、不完全性和不一致性等。例如,"明天可能下雨"是一个不确定的知识。
    3. 可表示性:知识可以用适当的形式表示出来,如语言、文字、符号、图形等,以便于存储和传播。
    4. 可利用性:知识可以被用来解决问题、做出决策或进行推理。
    5. 可扩充性:知识可以不断地被扩充和更新,随着人类认识的深入而不断发展。
  • 知识表示的概念:知识表示是指将知识用计算机可处理的形式表示出来的过程和方法。它是人工智能中知识工程的核心内容之一,目的是使计算机能够理解和利用知识进行问题求解。知识表示的好坏直接影响到人工智能系统的性能和效率。

(二)产生式表示法

识记:规则和事实的产生式表示方法。

【详细解释】

  • 规则的产生式表示方法 :规则通常表示为"IF 条件 THEN 结论"或"IF 前提 THEN 动作"的形式,也称为产生式规则。在产生式系统中,规则的一般形式为:
    P → Q
    其中,P称为前件(前提条件),Q称为后件(结论或动作)。前件可以是单个条件,也可以是多个条件的逻辑组合(如AND、OR、NOT等)。
  • 事实的产生式表示方法 :事实通常表示为原子命题的形式,即一个断言或一个陈述。在产生式系统中,事实可以表示为:
    (对象, 属性, 值)

    (关系, 对象1, 对象2)
    例如,"张三是学生"可以表示为(张三, 身份, 学生),"张三喜欢李四"可以表示为(喜欢, 张三, 李四)。

领会:产生式系统的组成及其关系。

【详细解释】产生式系统由三个主要部分组成:

  1. 知识库:存储产生式规则和事实,是产生式系统的核心组成部分。
  2. 综合数据库:存储问题求解过程中的初始数据、中间结果和最终结论等信息。
  3. 推理机:根据知识库中的规则和综合数据库中的事实进行推理,选择合适的规则并执行,直到问题得到解决。

产生式系统的三个组成部分之间的关系:推理机从综合数据库中获取当前状态,然后从知识库中寻找匹配的规则,将规则的结论或动作应用到综合数据库中,更新综合数据库的状态,重复这个过程直到达到目标状态或没有可匹配的规则。

简单应用:用产生式表示规则或事实。

【详细解释】

  • 规则表示示例
    规则1:如果动物有毛发,那么它是哺乳动物。表示为:
    IF 动物有毛发 THEN 动物是哺乳动物
    规则2:如果动物是哺乳动物且吃肉,那么它是食肉动物。表示为:
    IF 动物是哺乳动物 AND 动物吃肉 THEN 动物是食肉动物
  • 事实表示示例
    事实1:动物有毛发。表示为:(动物, 有, 毛发)
    事实2:动物吃肉。表示为:(动物, 吃, 肉)

(三)框架表示法

识记:框架的概念和组成结构。

【详细解释】

  • 框架的概念:框架是一种结构化的知识表示方法,它将知识组织成一种类似于表格的结构,用于描述对象的属性和关系。框架是基于人类认知心理学中的"框架理论"提出的,认为人类在认识事物时,会将事物的特征和属性组织成一个框架。
  • 框架的组成结构 :框架通常由以下部分组成:
    1. 框架名:用于标识框架的名称。
    2. :用于描述对象的某个属性或特征,每个槽有一个槽名。
    3. 侧面:用于描述槽的某个方面的属性,每个槽可以有多个侧面。
    4. :槽或侧面的具体取值。

领会:框架的一般表示形式。

【详细解释】框架的一般表示形式为:

框架名

{

槽名1:值1

槽名2:{

侧面名1:值1

侧面名2:值2

}

槽名3:值3

...

}

例如,一个描述"学生"的框架可以表示为:

学生

{

姓名:

年龄:

性别:

专业:

班级:

}

简单应用:用框架表示知识。

【详细解释】

  • 示例1:描述"张三"的框架

    张三

    {

    姓名:张三

    年龄:20

    性别:男

    专业:计算机科学与技术

    班级:2023级1班

    成绩:{

    数学:90

    英语:85

    计算机:95

    }

    }

  • 示例2:描述"计算机"的框架

    计算机

    {

    品牌:联想

    型号:ThinkPad X1 Carbon

    CPU:Intel i7

    内存:16GB

    硬盘:512GB SSD

    显示器:14英寸

    }

(四)状态空间表示法

识记:状态空间的概念和表示。

【详细解释】

  • 状态空间的概念:状态空间是指问题求解过程中所有可能的状态以及状态之间的转换关系的集合。状态空间表示法是一种基于状态和操作的知识表示方法,用于描述问题的求解过程。
  • 状态空间的表示 :状态空间通常用一个三元组表示:
    (S, O, G)
    其中,S是初始状态集合,O是操作集合,G是目标状态集合。
    • 状态:状态是指问题在某一时刻的情况,通常用一组变量或参数来表示。
    • 操作:操作是指从一个状态转换到另一个状态的动作,也称为算子或算符。
    • 目标状态:目标状态是指问题求解的最终状态,通常是一个或一组满足特定条件的状态。

综合应用:状态空间的图描述。

【详细解释】状态空间可以用图的形式来描述,其中节点表示状态,边表示操作,从一个节点到另一个节点的边表示通过某个操作可以从一个状态转换到另一个状态。

示例:八数码问题的状态空间图描述

八数码问题是在一个3×3的方格中,放置了8个数字1-8和一个空格,目标是通过移动空格将数字从初始状态排列成目标状态。

  • 状态表示:用一个3×3的矩阵表示状态,其中0表示空格。
  • 初始状态:例如,[[1, 2, 3], [4, 0, 5], [6, 7, 8]]
  • 目标状态:例如,[[1, 2, 3], [4, 5, 6], [7, 8, 0]]
  • 操作:包括空格向上移动(Up)、向下移动(Down)、向左移动(Left)、向右移动(Right)四种操作。
  • 状态空间图:以初始状态为根节点,通过应用操作生成子节点,形成一棵搜索树,直到找到目标状态。

四、本章重点、难点

本章的重点:知识表示的概念和产生式、框架、状态空间三种表示方法。

本章的难点:状态空间的图描述。

【简答题】

  1. 简述知识的特性。

    参考答案:知识具有以下特性:(1)相对正确性:知识只在特定条件下才是正确的;(2)不确定性:知识可能存在随机性、模糊性等不确定性;(3)可表示性:知识可以用适当的形式表示出来;(4)可利用性:知识可以被用来解决问题;(5)可扩充性:知识可以不断地被扩充和更新。

  2. 简述产生式系统的组成及其关系。

    参考答案:产生式系统由知识库、综合数据库和推理机三部分组成。知识库存储产生式规则和事实;综合数据库存储问题求解过程中的初始数据、中间结果和最终结论;推理机根据知识库中的规则和综合数据库中的事实进行推理,选择合适的规则并执行。三者之间的关系是:推理机从综合数据库获取当前状态,从知识库寻找匹配规则,将规则的结论或动作应用到综合数据库,更新状态,重复直到解决问题。

【应用题】

  1. 用产生式表示以下知识:
    (1) 如果今天下雨,那么我不去上班。
    (2) 如果今天是周末,那么我去公园。
    (3) 今天下雨。
    (4) 今天是周末。

参考答案:

(1) 规则:IF 今天下雨 THEN 我不去上班

(2) 规则:IF 今天是周末 THEN 我去公园

(3) 事实:(今天, 天气, 下雨)

(4) 事实:(今天, 日期类型, 周末)

  1. 用框架表示以下知识:
    张三是一名计算机专业的学生,20岁,男性,成绩优秀,其中数学90分,英语85分,计算机95分。

参考答案:

张三

{

姓名:张三

年龄:20

性别:男

专业:计算机科学与技术

成绩等级:优秀

具体成绩:{

数学:90

英语:85

计算机:95

}

}

  1. 用状态空间表示法描述"狼、羊、菜"问题:
    一个人要把狼、羊、菜从河的左岸运到右岸,船上一次只能载一个人和一样东西。如果人不在,狼会吃羊,羊会吃菜。

参考答案:

  • 状态表示:用四元组(人, 狼, 羊, 菜)表示状态,其中每个元素可以是L(左岸)或R(右岸)。
  • 初始状态:(L, L, L, L)
  • 目标状态:(R, R, R, R)
  • 操作集合:包括人独自划船、人带狼划船、人带羊划船、人带菜划船四种操作,每种操作又分为从左岸到右岸和从右岸到左岸两种情况。
  • 状态空间图:以初始状态为根节点,通过合法的操作生成子节点,避免出现狼吃羊或羊吃菜的状态,直到找到目标状态。

第4章知识图谱

(一)引言:从语义搜索认识知识图谱

识记:知识图谱的概念和组成。

【详细解释】

  • 知识图谱的概念:知识图谱是一种结构化的知识表示方法,它将现实世界中的实体、概念及其之间的关系用图结构表示出来。知识图谱的核心思想是通过实体和关系来描述客观世界中的事物及其之间的联系,从而实现对知识的有效组织、管理和利用。知识图谱最初由Google于2012年提出,用于改进搜索引擎的语义搜索能力,后来逐渐成为人工智能领域的核心技术之一。
  • 知识图谱的组成 :知识图谱主要由以下两部分组成:
    1. 实体:实体是知识图谱中的基本单元,指现实世界中可区分的具体事物或抽象概念,如人、地点、组织、事件等。实体通常用唯一标识符(ID)表示,如"张三"、"北京"、"清华大学"等。
    2. 关系 :关系是实体之间的联系,用于描述实体之间的语义关联,如"属于"、"位于"、"出生于"等。关系通常用谓词表示,如"张三 - 出生于 - 北京"表示张三和北京之间的"出生于"关系。
      知识图谱的基本表示形式是三元组(Subject, Predicate, Object),其中Subject表示主语(源实体),Predicate表示谓语(关系),Object表示宾语(目标实体)。例如,(张三,是,学生)、(北京,是,中国的首都)等都是三元组。

(二)万维网知识表示

识记:本体的定义和特性。

【详细解释】

  • 本体的定义:本体是对特定领域中概念及其之间关系的形式化描述,它提供了该领域中共同认可的概念体系和术语表。本体的核心是概念化,即通过抽象化的方式提取领域中的关键概念和关系,形成一个结构化的知识模型。
  • 本体的特性
    1. 清晰性:本体必须明确地定义概念和关系的含义,避免歧义。
    2. 一致性:本体中的概念和关系必须相互一致,不存在矛盾。
    3. 可扩展性:本体必须能够方便地扩展,以适应领域知识的增长和变化。
    4. 最小承诺:本体只包含必要的概念和关系,避免引入不必要的假设。
    5. 形式化:本体必须用形式化的语言表示,以便于计算机处理和推理。

领会:语义网和万维网的区别,资源描述框架RDF。

【详细解释】

  • 语义网和万维网的区别

    1. 万维网(Web):传统万维网是一个由网页组成的信息网络,主要通过超链接将网页连接起来,用户通过浏览器访问和浏览网页。万维网的信息主要以自然语言和HTML格式表示,计算机难以理解其语义内容。
    2. 语义网(Semantic Web):语义网是万维网的延伸,它通过赋予信息明确的语义,使计算机能够理解和处理网络上的信息。语义网的核心是"语义标记",即使用标准化的知识表示语言(如RDF、OWL等)对网络信息进行标记,使其具有机器可理解的语义。
  • 资源描述框架RDF

    1. 概念:资源描述框架(Resource Description Framework,RDF)是语义网的核心技术之一,它提供了一种标准化的方式来描述网络资源及其之间的关系。
    2. 基本模型 :RDF的基本模型是三元组(Subject, Predicate, Object),其中:
      • Subject:表示被描述的资源,可以是任何URI(统一资源标识符)或空节点。
      • Predicate:表示资源的属性或关系,必须是URI。
      • Object:表示资源的属性值或关联的资源,可以是URI、空节点或字面量(如字符串、数字等)。
    3. 特点:RDF具有简单性、灵活性和可扩展性等特点,它可以表示各种类型的知识,并且可以与其他RDF数据集成。

简单应用:用可扩展标记语言XML组织互联网信息。

【详细解释】可扩展标记语言(eXtensible Markup Language,XML)是一种用于标记电子文件使其具有结构性的标记语言,它可以用来组织和存储互联网信息。XML的主要特点是:

  1. 可扩展性:用户可以自定义标记,根据需要创建自己的标记语言。
  2. 结构性:XML文档具有清晰的层次结构,便于计算机解析和处理。
  3. 平台无关性:XML可以在不同的平台和系统之间交换数据,具有良好的互操作性。

XML组织互联网信息示例

xml 复制代码
<?xml version="1.0" encoding="UTF-8"?>
<library>
  <book id="1">
    <title>人工智能导论</title>
    <author>张三</author>
    <publisher>清华大学出版社</publisher>
    <year>2023</year>
  </book>
  <book id="2">
    <title>机器学习基础</title>
    <author>李四</author>
    <publisher>北京大学出版社</publisher>
    <year>2022</year>
  </book>
</library>

(三)知识图谱的现状及发展

领会:当前互联网几个常用的知识图谱。

【详细解释】当前互联网上常用的知识图谱主要包括:

  1. Google知识图谱(Google Knowledge Graph):Google于2012年推出的知识图谱,用于改进搜索引擎的语义搜索能力,提供更准确的搜索结果和丰富的知识卡片。
  2. 维基数据(Wikidata):由维基媒体基金会运营的免费、协作式的结构化知识库,它是维基百科、维基词典等维基项目的中央存储库。
  3. 百度知识图谱:百度公司推出的中文知识图谱,涵盖了人物、地点、组织、事件等多个领域的知识,用于支持百度搜索、百度知道等产品。
  4. Freebase:由Meta(原Facebook)公司开发的结构化知识库,于2016年关闭,其数据已迁移到维基数据。
  5. DBpedia:基于维基百科的结构化知识库,它从维基百科中提取结构化信息,形成RDF格式的知识图谱。

(四)知识图谱的生命周期

识记:互联网时代知识在数据中的分布特点。

【详细解释】互联网时代知识在数据中的分布具有以下特点:

  1. 碎片化:知识分散在大量的网页、文档、数据库等不同的数据源中,缺乏统一的组织和管理。
  2. 异构性:不同数据源的知识表示形式各不相同,包括结构化数据(如数据库)、半结构化数据(如XML、JSON)和非结构化数据(如文本、图片)等。
  3. 动态性:知识随着时间的推移不断更新和变化,需要及时捕获和处理新的知识。
  4. 海量性:互联网上的知识数据量巨大,呈爆炸式增长,需要高效的技术来处理和管理。

领会:知识图谱的生命周期。

【详细解释】知识图谱的生命周期主要包括以下几个阶段:

  1. 知识获取:从各种数据源(如文本、数据库、网页等)中获取知识,包括实体识别、关系抽取、属性提取等任务。
  2. 知识表示:将获取的知识转化为结构化的表示形式,如三元组、本体等。
  3. 知识融合:将来自不同数据源的知识进行整合,解决实体对齐、关系对齐等问题,消除冗余和冲突。
  4. 知识存储:将融合后的知识存储到适当的数据库中,如关系数据库、图数据库等,以支持高效的查询和推理。
  5. 知识推理:利用知识图谱中的知识进行推理,发现隐含的知识和关系,扩展知识图谱的内容。
  6. 知识应用:将知识图谱应用到实际的应用场景中,如语义搜索、智能问答、推荐系统等。
  7. 知识更新:随着时间的推移,不断更新知识图谱中的知识,以适应新的信息和需求。

四、本章重点、难点

本章的重点:本体和互联网环境下的知识表示方法,知识图谱的生命周期和典型应用。

本章的难点:本体和语义网知识表示。

【简答题】

  1. 简述知识图谱的概念和组成。

    参考答案:知识图谱是一种结构化的知识表示方法,它将现实世界中的实体、概念及其之间的关系用图结构表示出来。知识图谱主要由实体和关系两部分组成。实体是知识图谱中的基本单元,指现实世界中可区分的具体事物或抽象概念;关系是实体之间的联系,用于描述实体之间的语义关联。知识图谱的基本表示形式是三元组(Subject, Predicate, Object),其中Subject表示主语(源实体),Predicate表示谓语(关系),Object表示宾语(目标实体)。

  2. 简述本体的定义和特性。

    参考答案:本体是对特定领域中概念及其之间关系的形式化描述,它提供了该领域中共同认可的概念体系和术语表。本体的特性包括:(1)清晰性:明确地定义概念和关系的含义,避免歧义;(2)一致性:概念和关系相互一致,不存在矛盾;(3)可扩展性:能够方便地扩展,适应领域知识的增长和变化;(4)最小承诺:只包含必要的概念和关系,避免引入不必要的假设;(5)形式化:用形式化的语言表示,便于计算机处理和推理。

【应用题】

  1. 用RDF三元组表示以下知识:
    (1) 张三是一名学生。
    (2) 张三出生于北京。
    (3) 北京是中国的首都。

参考答案:

(1) (张三, 是, 学生)

(2) (张三, 出生于, 北京)

(3) (北京, 是, 中国的首都)

  1. 用XML组织以下互联网信息:
    有一个在线商店,销售以下商品:
    • 商品1:名称为"智能手机",价格为2999元,品牌为"小米"。
    • 商品2:名称为"笔记本电脑",价格为5999元,品牌为"联想"。
    • 商品3:名称为"平板电脑",价格为1999元,品牌为"苹果"。

参考答案:

xml 复制代码
<?xml version="1.0" encoding="UTF-8"?>
<online_store>
  <product id="1">
    <name>智能手机</name>
    <price>2999</price>
    <brand>小米</brand>
  </product>
  <product id="2">
    <name>笔记本电脑</name>
    <price>5999</price>
    <brand>联想</brand>
  </product>
  <product id="3">
    <name>平板电脑</name>
    <price>1999</price>
    <brand>苹果</brand>
  </product>
</online_store>

第5章搜索技术

(一)图搜索策略

领会:图搜索和状态图的关系

【详细解释】

图搜索和状态图之间存在密切的关系:

  1. 状态图是图搜索的基础:状态图是一种用于描述问题求解过程中所有可能状态及其之间转换关系的图结构,它为图搜索提供了搜索空间。
  2. 图搜索是在状态图中寻找解路径的过程:图搜索算法通过在状态图中遍历节点和边,寻找从初始状态到目标状态的路径,从而解决问题。
  3. 图搜索的结果是状态图中的一条路径:图搜索算法最终会找到一条从初始状态到目标状态的路径,这条路径就是问题的解。
  4. 状态图的性质影响图搜索的效率:状态图的规模、结构、分支因子等性质会直接影响图搜索算法的时间和空间复杂度。

(二)盲目搜索

识记:盲目搜索的概念和两种常用的盲目搜索方法:深度优先搜索和宽度优先搜索

【详细解释】

  • 盲目搜索的概念:盲目搜索又称无信息搜索,是指在搜索过程中不利用任何与问题相关的启发式信息,仅按照固定的搜索策略进行搜索的方法。盲目搜索的特点是搜索过程中不考虑节点的代价或距离目标节点的远近,仅按照预定的顺序访问节点。
  • 两种常用的盲目搜索方法
    1. 深度优先搜索(DFS):深度优先搜索是一种优先沿着一条路径尽可能深地搜索的策略,直到到达目标节点或无法继续深入时,才回溯到上一个节点,选择另一条路径继续搜索。
    2. 宽度优先搜索(BFS):宽度优先搜索是一种逐层搜索的策略,先访问所有距离初始节点为1的节点,然后访问所有距离初始节点为2的节点,以此类推,直到找到目标节点。

领会:深度优先搜索和宽度优先搜索两种方法的原理及优缺点

【详细解释】

  • 深度优先搜索(DFS)的原理

    1. 从初始节点开始,将其标记为已访问。
    2. 选择一个未访问的子节点,将其标记为已访问,并将其加入搜索路径。
    3. 重复步骤2,直到到达目标节点或无法继续深入(即当前节点没有未访问的子节点)。
    4. 如果到达目标节点,则搜索成功,返回搜索路径;否则,回溯到上一个节点,选择另一个未访问的子节点继续搜索。
  • 深度优先搜索的优缺点

    • 优点
      1. 空间复杂度低,只需要存储从初始节点到当前节点的路径。
      2. 对于深度较小的问题,搜索速度较快。
    • 缺点
      1. 可能陷入死循环(如果状态图中存在环)。
      2. 不一定能找到最优解(如果存在多条路径,可能找到的是较长的路径)。
      3. 对于深度较大的问题,搜索效率较低。
  • 宽度优先搜索(BFS)的原理

    1. 从初始节点开始,将其标记为已访问,并加入队列。
    2. 从队列中取出一个节点,检查是否为目标节点。如果是,则搜索成功,返回搜索路径;否则,继续下一步。
    3. 访问该节点的所有未访问的子节点,将它们标记为已访问,并加入队列。
    4. 重复步骤2和3,直到队列为空(搜索失败)或找到目标节点。
  • 宽度优先搜索的优缺点

    • 优点
      1. 一定能找到最优解(如果存在解)。
      2. 不会陷入死循环(因为节点被标记为已访问)。
    • 缺点
      1. 空间复杂度高,需要存储所有已访问的节点。
      2. 对于状态空间较大的问题,搜索效率较低。

简单应用:用盲目搜索的方法在状态图中求解。

【详细解释】

以"迷宫问题"为例,说明如何用盲目搜索方法求解:

  • 问题描述:在一个迷宫中,从入口(初始状态)出发,找到出口(目标状态)。
  • 状态表示:用坐标(x, y)表示迷宫中的位置。
  • 操作:上下左右四个方向移动。
  1. 用深度优先搜索求解

    • 从入口(0, 0)开始,向右移动到(0, 1),然后继续向右移动到(0, 2),直到无法继续向右移动,然后向下移动,以此类推,直到找到出口。
    • 如果在某条路径上无法找到出口,则回溯到上一个节点,选择另一个方向继续搜索。
  2. 用宽度优先搜索求解

    • 从入口(0, 0)开始,先访问所有距离入口为1的节点(上下左右四个方向的相邻节点),然后访问所有距离入口为2的节点,以此类推,直到找到出口。
    • 由于宽度优先搜索逐层搜索,所以找到的第一条路径一定是最短路径(最优解)。

(三)启发式搜索

识记:启发式搜索的概念和两种常用的启发式搜索方法:A算法和A*算法

【详细解释】

  • 启发式搜索的概念:启发式搜索又称有信息搜索,是指在搜索过程中利用与问题相关的启发式信息(如节点距离目标节点的估计代价)来指导搜索方向,优先选择最有可能找到目标节点的路径进行搜索的方法。启发式搜索的特点是搜索过程中考虑节点的代价或距离目标节点的远近,从而提高搜索效率。
  • 两种常用的启发式搜索方法
    1. A算法:A算法是一种基于估价函数的启发式搜索算法,它通过计算每个节点的估价函数值,优先选择估价函数值最小的节点进行扩展。A算法的估价函数为f(n) = g(n) + h(n),其中g(n)是从初始节点到节点n的实际代价,h(n)是从节点n到目标节点的估计代价。
    2. A*算法 :A算法是一种特殊的A算法,它要求估价函数中的h(n)满足h(n) ≤ h(n),其中h*(n)是从节点n到目标节点的实际最小代价。A*算法的优点是一定能找到最优解,且搜索效率较高。

综合应用:根据给定的启发函数,用启发式搜索的方法在状态图中求解。

【详细解释】

以"八数码问题"为例,说明如何用A*算法求解:

  • 问题描述:在一个3×3的方格中,放置了8个数字1-8和一个空格,目标是通过移动空格将数字从初始状态排列成目标状态。
  • 状态表示:用一个3×3的矩阵表示状态,其中0表示空格。
  • 操作:空格向上、向下、向左、向右移动。
  • 估价函数 :f(n) = g(n) + h(n),其中:
    • g(n)是从初始状态到当前状态的移动次数。
    • h(n)是当前状态中数字与目标状态中对应位置数字不相同的个数(曼哈顿距离或错位数字个数)。

A*算法求解过程

  1. 初始化开放列表(存储待扩展的节点)和关闭列表(存储已扩展的节点)。
  2. 将初始节点加入开放列表。
  3. 从开放列表中选择f(n)值最小的节点n进行扩展。
  4. 如果节点n是目标节点,则搜索成功,返回搜索路径。
  5. 否则,将节点n从开放列表移到关闭列表。
  6. 生成节点n的所有子节点(即空格的所有可能移动)。
  7. 对于每个子节点:
    • 如果子节点已在关闭列表中,则跳过。
    • 如果子节点不在开放列表中,则计算其f(n)值,并将其加入开放列表。
    • 如果子节点已在开放列表中,比较新的f(n)值和原有的f(n)值,如果新的f(n)值更小,则更新其f(n)值和父节点。
  8. 重复步骤3-7,直到开放列表为空(搜索失败)或找到目标节点。

四、本章重点、难点

本章的重点:盲目搜索和启发式搜索的特点及其各种搜索技术

本章的难点:运用各种搜索技术求解问题。

【简答题】

  1. 简述深度优先搜索和宽度优先搜索的优缺点。
    参考答案:
    深度优先搜索的优点:空间复杂度低,只需要存储从初始节点到当前节点的路径;对于深度较小的问题,搜索速度较快。缺点:可能陷入死循环(如果状态图中存在环);不一定能找到最优解(如果存在多条路径,可能找到的是较长的路径);对于深度较大的问题,搜索效率较低。

宽度优先搜索的优点:一定能找到最优解(如果存在解);不会陷入死循环(因为节点被标记为已访问)。缺点:空间复杂度高,需要存储所有已访问的节点;对于状态空间较大的问题,搜索效率较低。

  1. 简述A算法和A算法的区别。
    参考答案:
    A算法和A
    算法的主要区别在于估价函数的要求:A算法的估价函数为f(n) = g(n) + h(n),其中h(n)可以是任意估计代价函数;而A算法要求h(n) ≤ h(n),其中h*(n)是从节点n到目标节点的实际最小代价,即h(n)是可采纳的启发函数。A*算法的优点是一定能找到最优解,而A算法不一定能找到最优解。

【应用题】

  1. 给定一个迷宫,入口为(0, 0),出口为(3, 3),迷宫的墙壁位置为(1, 1)、(1, 2)、(2, 1),请用深度优先搜索和宽度优先搜索分别画出搜索过程,并说明哪种方法能找到最优解。

迷宫布局:

(0,0) (0,1) (0,2) (0,3)

(1,0) [墙] [墙] (1,3)

(2,0) [墙] (2,2) (2,3)

(3,0) (3,1) (3,2) (3,3)

参考答案:
深度优先搜索过程

  1. 从(0,0)开始,标记为已访问。
  2. 向右移动到(0,1),标记为已访问。
  3. 向右移动到(0,2),标记为已访问。
  4. 向右移动到(0,3),标记为已访问。
  5. 向下移动到(1,3),标记为已访问。
  6. 向下移动到(2,3),标记为已访问。
  7. 向下移动到(3,3),找到出口。
    搜索路径:(0,0)→(0,1)→(0,2)→(0,3)→(1,3)→(2,3)→(3,3),长度为6。

宽度优先搜索过程

  1. 从(0,0)开始,标记为已访问,加入队列。
  2. 出队(0,0),访问其相邻节点(0,1)和(1,0),标记为已访问,加入队列。
  3. 出队(0,1),访问其相邻节点(0,2),标记为已访问,加入队列。
  4. 出队(1,0),访问其相邻节点(2,0),标记为已访问,加入队列。
  5. 出队(0,2),访问其相邻节点(0,3),标记为已访问,加入队列。
  6. 出队(2,0),访问其相邻节点(3,0),标记为已访问,加入队列。
  7. 出队(0,3),访问其相邻节点(1,3),标记为已访问,加入队列。
  8. 出队(3,0),访问其相邻节点(3,1),标记为已访问,加入队列。
  9. 出队(1,3),访问其相邻节点(2,3),标记为已访问,加入队列。
  10. 出队(3,1),访问其相邻节点(3,2),标记为已访问,加入队列。
  11. 出队(2,3),访问其相邻节点(3,3),找到出口。
    搜索路径:(0,0)→(0,1)→(0,2)→(0,3)→(1,3)→(2,3)→(3,3),长度为6。

最优解分析:在这个例子中,深度优先搜索和宽度优先搜索找到的路径长度相同,都是最优解。但在一般情况下,宽度优先搜索一定能找到最优解,而深度优先搜索不一定能找到最优解。

  1. 给定八数码问题的初始状态和目标状态:
    初始状态:
    1 2 3
    4 0 5
    6 7 8

目标状态:

1 2 3

4 5 6

7 8 0

使用A*算法求解,其中h(n)为错位数字个数(不包括空格),请计算初始节点及其子节点的f(n)值,并说明下一步扩展哪个节点。

参考答案:
初始节点分析

  • 初始状态:1 2 3 | 4 0 5 | 6 7 8
  • g(n) = 0(初始节点,移动次数为0)
  • h(n):错位数字有5(在(0,2)位置,目标位置在(1,1))、6(在(2,0)位置,目标位置在(1,2))、7(在(2,1)位置,目标位置在(2,0))、8(在(2,2)位置,目标位置在(2,1)),共4个错位数字,所以h(n) = 4
  • f(n) = g(n) + h(n) = 0 + 4 = 4

子节点分析

空格0的可能移动方向有上、下、左、右四个方向,生成四个子节点:

  1. 空格向上移动

    • 状态:1 0 3 | 4 2 5 | 6 7 8
    • g(n) = 1
    • h(n):错位数字有0(在(0,1)位置)、2(在(1,1)位置,目标位置在(0,1))、5(在(1,2)位置,目标位置在(1,1))、6(在(2,0)位置,目标位置在(1,2))、7(在(2,1)位置,目标位置在(2,0))、8(在(2,2)位置,目标位置在(2,1)),共6个错位数字,所以h(n) = 6
    • f(n) = 1 + 6 = 7
  2. 空格向下移动

    • 状态:1 2 3 | 4 7 5 | 6 0 8
    • g(n) = 1
    • h(n):错位数字有7(在(1,1)位置,目标位置在(2,0))、0(在(2,1)位置)、8(在(2,2)位置,目标位置在(2,1)),共3个错位数字,所以h(n) = 3
    • f(n) = 1 + 3 = 4
  3. 空格向左移动

    • 状态:1 2 3 | 0 4 5 | 6 7 8
    • g(n) = 1
    • h(n):错位数字有0(在(1,0)位置)、4(在(1,1)位置,目标位置在(1,0))、5(在(1,2)位置,目标位置在(1,1))、6(在(2,0)位置,目标位置在(1,2))、7(在(2,1)位置,目标位置在(2,0))、8(在(2,2)位置,目标位置在(2,1)),共6个错位数字,所以h(n) = 6
    • f(n) = 1 + 6 = 7
  4. 空格向右移动

    • 状态:1 2 3 | 4 5 0 | 6 7 8
    • g(n) = 1
    • h(n):错位数字有0(在(1,2)位置)、6(在(2,0)位置,目标位置在(1,2))、7(在(2,1)位置,目标位置在(2,0))、8(在(2,2)位置,目标位置在(2,1)),共4个错位数字,所以h(n) = 4
    • f(n) = 1 + 4 = 5

下一步扩展节点

在初始节点的四个子节点中,f(n)值最小的节点是空格向下移动生成的节点(f(n) = 4)和初始节点本身(f(n) = 4)。由于初始节点已经被扩展,所以下一步扩展空格向下移动生成的节点。

第6章机器学习

(一)机器学习的发展

领会:机器学习发展的几个重要节点。

【详细解释】机器学习的发展大致经历了以下几个重要节点:

  1. 人工智能诞生时期(1950年代-1960年代初)

    • 1950年,图灵发表《计算机器与智能》,提出图灵测试,为人工智能的发展奠定了理论基础。
    • 1956年,达特茅斯会议召开,"人工智能"这一术语正式诞生,同时也标志着机器学习研究的开始。
    • 1957年,罗森布拉特发明感知机,这是最早的机器学习算法之一,能够通过训练学习简单的模式识别任务。
  2. 第一次AI冬天(1960年代末-1970年代)

    • 1969年,明斯基等人在《感知机》一书中指出了感知机的局限性,如无法解决异或问题,导致机器学习研究陷入低谷。
    • 研究资金减少,AI研究进入第一个"冬天"。
  3. 专家系统时代(1970年代末-1980年代)

    • 1977年,费根鲍姆提出"知识工程"概念,专家系统兴起,通过规则和知识表示来模拟专家的决策过程。
    • 1986年,昆兰提出ID3决策树算法,这是一种基于信息增益的决策树构建算法,在分类问题中表现出色。
    • 反向传播算法的提出使得多层神经网络的训练成为可能,推动了神经网络研究的复苏。
  4. 第二次AI冬天(1980年代末-1990年代初)

    • 专家系统的局限性显现,如知识获取瓶颈、维护成本高、灵活性差等问题,导致其应用受限。
    • 机器学习研究再次进入低谷,这是第二次"AI冬天"。
  5. 机器学习复兴(1990年代-2000年代)

    • 统计学习方法兴起,如支持向量机(SVM)、贝叶斯网络、集成学习等算法的提出,为机器学习提供了新的理论基础。
    • 数据量的增加和计算能力的提升推动了机器学习的发展,使其在实际应用中取得成功。
  6. 深度学习时代(2010年代至今)

    • 2006年,辛顿等人提出深度学习的概念,通过预训练和微调的方法解决了深层神经网络的训练问题。
    • 2012年,AlexNet在ImageNet竞赛中以显著优势获胜,标志着深度学习时代的到来。
    • 大数据和GPU的普及使得深度学习模型能够处理大规模数据,在计算机视觉、自然语言处理等领域取得革命性成果。

(二)监督学习

识记:监督学习的概念。

【详细解释】监督学习是机器学习的一种重要方法,它是指在有标记数据(即输入数据和对应的输出标签)的指导下进行学习的过程。监督学习的目标是通过学习输入数据和输出标签之间的映射关系,建立一个模型,使得该模型能够对新的、未知的数据进行准确的预测。监督学习的典型应用包括分类和回归问题,如图像识别、语音识别、文本分类、房价预测等。

领会:K-近邻算法、决策树算法和支持向量机算法的原理。

【详细解释】

  • K-近邻算法(KNN)的原理:K-近邻算法是一种基于实例的学习算法,其核心思想是"物以类聚"。对于一个新的测试样本,K-近邻算法会在训练集中寻找与该样本最相似(距离最近)的K个样本,然后根据这K个样本的标签来预测测试样本的标签。在分类问题中,通常采用投票法,即选择K个样本中出现次数最多的标签作为预测结果;在回归问题中,通常采用平均法,即计算K个样本标签的平均值作为预测结果。
  • 决策树算法的原理:决策树算法是一种基于树结构的分类和回归算法,其核心思想是通过一系列的判断条件将数据逐步划分成不同的子集,直到每个子集内的数据具有相同或相似的标签。决策树的构建过程是一个递归的过程,每次选择一个最优的特征来划分数据,使得划分后的子集的纯度最高。常用的特征选择指标包括信息增益、信息增益比、基尼指数等。
  • 支持向量机算法(SVM)的原理:支持向量机算法是一种基于统计学习理论的分类算法,其核心思想是寻找一个最优的超平面,使得该超平面能够将不同类别的数据点分开,并且最大化不同类别数据点到超平面的距离(即边际最大化)。对于线性可分的数据,支持向量机直接寻找最优超平面;对于线性不可分的数据,支持向量机通过核函数将数据映射到高维空间,使其在高维空间中线性可分,然后再寻找最优超平面。

简单应用:用决策树算法解决分类问题。

【详细解释】以"贷款审批"问题为例,说明如何用决策树算法解决分类问题:

  • 问题描述:根据客户的年龄、收入、是否有房、信用记录等特征,判断是否批准客户的贷款申请。
  • 数据准备:收集历史贷款数据,包括客户的特征和贷款审批结果(批准或拒绝)。
  • 决策树构建
    1. 选择最优特征作为根节点,例如"是否有房",因为这个特征可能对贷款审批结果的影响最大。
    2. 根据"是否有房"将数据划分为两个子集:有房的子集和无房的子集。
    3. 对每个子集,选择下一个最优特征继续划分,例如在无房的子集中选择"收入"作为划分特征。
    4. 重复步骤3,直到每个子集内的数据具有相同的标签或满足停止条件。
  • 决策树应用:对于一个新的客户,从根节点开始,根据客户的特征逐步向下遍历决策树,直到到达叶子节点,叶子节点的标签即为贷款审批结果。

(三)无监督学习

识记:无监督学习的概念。

【详细解释】无监督学习是机器学习的一种重要方法,它是指在没有标记数据(即只有输入数据,没有对应的输出标签)的情况下进行学习的过程。无监督学习的目标是通过学习输入数据的内在结构和规律,发现数据中的模式、聚类或降维表示。无监督学习的典型应用包括聚类、降维、关联规则挖掘等,如客户细分、图像压缩、推荐系统等。

领会:无监督学习和监督学习的区别及其各自的使用场景,聚类和自编码器算法的原理。

【详细解释】

  • 无监督学习和监督学习的区别

    1. 数据要求:监督学习需要有标记的数据,而无监督学习不需要标记数据。
    2. 学习目标:监督学习的目标是学习输入数据和输出标签之间的映射关系,而无监督学习的目标是发现数据的内在结构和规律。
    3. 评估方式:监督学习可以通过预测结果与真实标签的对比来评估模型性能,而无监督学习的评估通常比较主观,需要根据具体应用场景来判断。
  • 各自的使用场景

    1. 监督学习的使用场景:适用于有标记数据的情况,如图像分类、语音识别、文本情感分析、预测建模等。
    2. 无监督学习的使用场景:适用于无标记数据或需要发现数据内在结构的情况,如客户细分、异常检测、数据降维、推荐系统等。
  • 聚类算法的原理:聚类算法是一种无监督学习算法,其核心思想是将相似的数据点聚成一类,使得同一类内的数据点尽可能相似,不同类之间的数据点尽可能不相似。常用的聚类算法包括K-means聚类、层次聚类、DBSCAN聚类等。以K-means聚类为例,其原理是:

    1. 随机选择K个初始聚类中心。
    2. 计算每个数据点到K个聚类中心的距离,将数据点分配到距离最近的聚类中心所在的类。
    3. 更新每个类的聚类中心为该类所有数据点的平均值。
    4. 重复步骤2和3,直到聚类中心不再变化或达到最大迭代次数。
  • 自编码器算法的原理:自编码器是一种神经网络模型,其核心思想是通过编码器将输入数据映射到一个低维的隐藏表示(编码),然后通过解码器将隐藏表示映射回原始数据空间(解码),使得解码后的输出尽可能接近原始输入。自编码器的训练目标是最小化解码输出与原始输入之间的重构误差。自编码器可以用于数据降维、特征提取、异常检测等任务。

(四)弱监督学习

识记:三种典型的弱监督学习算法:半监督学习、迁移学习和强化学习。

【详细解释】

  • 半监督学习:半监督学习是一种介于监督学习和无监督学习之间的学习方法,它利用少量的标记数据和大量的未标记数据进行学习。半监督学习的假设是数据具有一定的内在结构,未标记数据可以帮助标记数据更好地学习数据的分布。半监督学习的典型应用包括图像分类、文本分类等,当标记数据获取成本较高时,可以使用半监督学习来提高模型性能。
  • 迁移学习:迁移学习是一种利用已有的知识和经验来解决新问题的学习方法,它将在源领域(Source Domain)学习到的知识迁移到目标领域(Target Domain),以提高目标领域的学习效果。迁移学习的假设是源领域和目标领域之间存在一定的相似性,源领域的知识可以帮助目标领域的学习。迁移学习的典型应用包括图像识别、自然语言处理等,当目标领域的标记数据较少时,可以使用迁移学习来提高模型性能。
  • 强化学习:强化学习是一种通过与环境交互来学习最优策略的学习方法,它通过智能体(Agent)与环境(Environment)的交互,接收环境的状态(State)和奖励(Reward),然后选择动作(Action)来最大化累积奖励。强化学习的核心是马尔可夫决策过程(MDP)和价值函数(如Q函数)。强化学习的典型应用包括游戏AI、机器人控制、自动驾驶等,当需要智能体在动态环境中做出连续决策时,可以使用强化学习。

四、本章重点、难点

本章的重点:机器学习的各种方法及其原理。

本章的难点:运用监督学习和无监督学习方法解决应用问题。

【简答题】

  1. 简述监督学习和无监督学习的区别及其各自的使用场景。

    参考答案:监督学习和无监督学习的区别主要在于:(1)数据要求:监督学习需要有标记的数据,而无监督学习不需要标记数据;(2)学习目标:监督学习学习输入与输出的映射关系,无监督学习发现数据的内在结构和规律;(3)评估方式:监督学习通过预测结果与真实标签对比评估,无监督学习评估较主观。使用场景:监督学习适用于有标记数据的情况,如图像分类、语音识别等;无监督学习适用于无标记数据或需要发现数据内在结构的情况,如客户细分、数据降维等。

  2. 简述三种典型的弱监督学习算法的概念。

    参考答案:(1)半监督学习:利用少量标记数据和大量未标记数据进行学习,假设数据具有内在结构,未标记数据可帮助更好地学习数据分布。(2)迁移学习:将源领域学习到的知识迁移到目标领域,提高目标领域的学习效果,假设源领域和目标领域存在相似性。(3)强化学习:通过智能体与环境交互学习最优策略,接收状态和奖励,选择动作最大化累积奖励,适用于动态环境中的连续决策问题。

【应用题】

  1. 某银行需要根据客户的特征(年龄、收入、教育程度、职业)来预测客户是否会违约(违约或不违约)。请说明如何用决策树算法解决这个问题,并简要描述决策树的构建过程。

参考答案:

使用决策树算法解决客户违约预测问题的步骤如下:

(1)数据准备:收集客户的年龄、收入、教育程度、职业等特征数据,以及客户的违约历史记录(违约或不违约)。

(2)数据预处理:对数据进行清洗、缺失值处理、特征编码等。

(3)决策树构建:

  1. 选择最优特征作为根节点,例如"收入",因为收入可能是影响违约的重要因素。

  2. 根据"收入"将数据划分为多个子集,例如高收入、中等收入、低收入。

  3. 对每个子集,选择下一个最优特征继续划分,例如在低收入子集中选择"教育程度"。

  4. 重复步骤3,直到每个子集内的客户违约情况一致或满足停止条件(如树的深度达到最大值、子集大小小于阈值等)。

    (4)模型评估:使用测试数据评估决策树的性能,如准确率、精确率、召回率等。

    (5)模型应用:对于新客户,根据其特征遍历决策树,预测其违约概率。

  5. 某电商平台需要对客户进行细分,以便针对不同的客户群体制定不同的营销策略。请说明如何用K-means聚类算法解决这个问题,并简要描述聚类过程。

参考答案:

使用K-means聚类算法解决客户细分问题的步骤如下:

(1)数据准备:收集客户的购买历史数据,如购买频率、平均消费金额、最近一次购买时间等特征。

(2)数据预处理:对数据进行标准化处理,使得不同特征的尺度一致。

(3)K-means聚类:

  1. 确定聚类数量K,例如K=4,表示将客户分为4个群体。
  2. 随机选择K个初始聚类中心。
  3. 计算每个客户到K个聚类中心的距离(如欧氏距离),将客户分配到距离最近的聚类中心所在的群体。
  4. 更新每个群体的聚类中心为该群体所有客户特征的平均值。
  5. 重复步骤3和4,直到聚类中心不再变化或达到最大迭代次数。
    (4)结果分析:分析每个客户群体的特征,如群体1可能是高价值客户(购买频率高、平均消费金额高),群体2可能是流失客户(最近一次购买时间久远)等。
    (5)应用:根据不同客户群体的特征,制定相应的营销策略,如对高价值客户提供VIP服务,对流失客户发送优惠券等。

第7章人工神经网络与深度学习

(一)神经网络的发展历史

领会:深度学习的特点。

【详细解释】:深度学习是机器学习的一个重要分支,其核心特点是通过构建深层神经网络(通常包含多个隐藏层)来自动学习数据的层级特征表示。与传统机器学习方法相比,深度学习具有以下特点:1)自动特征提取能力,无需手工设计特征;2)强大的非线性建模能力,能够处理复杂的数据模式;3)对大规模数据的良好适应性,数据量越大,性能提升越明显;4)需要大量计算资源支持,通常依赖GPU等硬件加速;5)模型可迁移性强,预训练模型可用于多种任务。

(二)神经元与神经网络

识记:神经元数学模型,人工神经网络的分类。

【详细解释】:神经元数学模型是对生物神经元的简化模拟,通常包括三部分:1)输入层:接收来自其他神经元或外部的输入信号;2)权重与偏置:对输入信号进行加权求和;3)激活函数:对加权和进行非线性变换,产生输出信号。数学表达式为:y = f(Σw_i x_i + b),其中y为输出,x_i为输入,w_i为权重,b为偏置,f为激活函数。

人工神经网络的分类方式多样,按结构可分为:1)前馈神经网络(如感知器、BP神经网络):信号单向传播,无反馈环路;2)反馈神经网络(如Hopfield网络、玻尔兹曼机):包含反馈连接,可存储和处理动态信息;3)自组织神经网络(如Kohonen网络):无需监督,能自动聚类和特征映射。

领会:常用的激励函数及特点。

【详细解释】:激励函数是神经网络的核心组件,用于引入非线性特性,使网络能够学习复杂模式。常用的激励函数包括:1)sigmoid函数:将输入映射到(0,1)区间,导数在中间区域较大,两端接近0,易导致梯度消失;2)tanh函数:将输入映射到(-1,1)区间,中心对称,梯度消失问题较sigmoid轻;3)ReLU函数:输入大于0时输出等于输入,否则输出0,计算简单,有效缓解梯度消失,促进稀疏激活;4)Leaky ReLU函数:对ReLU的改进,输入小于0时输出较小的负值,避免神经元死亡现象;5)Softmax函数:将多分类问题的输出转换为概率分布,常用于输出层。

(三)BP神经网络及其学习算法

领会:BP神经网络结构。

【详细解释】:BP(Back Propagation)神经网络是一种多层前馈神经网络,其结构包括:1)输入层:接收外部输入数据;2)隐藏层:位于输入层和输出层之间,可包含一个或多个隐藏层,用于提取数据的层级特征;3)输出层:产生网络的预测结果。BP神经网络的核心特点是使用误差反向传播算法进行训练,通过比较实际输出与期望输出的误差,从输出层反向传播至输入层,逐层调整权重和偏置,最小化误差函数(通常为均方误差)。

简单应用:BP学习算法的实现。

【详细解释】:BP学习算法的实现步骤包括:1)初始化:随机初始化网络权重和偏置;2)前向传播:计算各层神经元的输入和输出;3)计算误差:根据输出层的实际输出与期望输出计算误差;4)反向传播:将误差从输出层反向传播至隐藏层,计算各层的误差项;5)更新权重和偏置:使用梯度下降法(或其变种)更新各层的权重和偏置;6)重复步骤2-5,直至误差满足要求或达到最大迭代次数。

综合应用:BP神经网络在模式识别中的应用。

【详细解释】:BP神经网络在模式识别领域应用广泛,如手写数字识别、图像分类、语音识别等。其应用流程通常包括:1)数据预处理:对原始数据进行归一化、特征选择等处理;2)网络设计:确定输入层神经元数量(与特征维度一致)、隐藏层数量和神经元数量、输出层神经元数量(与类别数一致);3)训练网络:使用标注数据训练BP神经网络;4)测试与评估:使用测试数据评估网络性能;5)应用:将训练好的网络用于实际模式识别任务。

(四)卷积神经网络

领会:卷积神经网络结构。

【详细解释】:卷积神经网络(CNN)是一种专门用于处理具有网格结构数据(如图像)的深度学习模型,其核心结构包括:1)卷积层:通过卷积核提取局部特征,具有参数共享和局部连接特性;2)池化层:对卷积层输出进行下采样,减少参数数量,增强模型鲁棒性;3)全连接层:将池化层输出的特征映射转换为最终的分类结果;4)激活函数:通常使用ReLU函数,引入非线性特性。典型的CNN架构(如LeNet-5、AlexNet)由多个卷积层和池化层交替堆叠,最后连接全连接层组成。

简单应用:卷积神经网络的卷积运算。

【详细解释】:卷积运算是CNN的核心操作,用于提取图像的局部特征。其计算过程为:1)将卷积核(通常为3×3、5×5等小尺寸矩阵)在输入特征图上滑动;2)在每个位置,将卷积核与对应的输入区域进行元素级相乘并求和,得到该位置的卷积输出;3)通过添加偏置并应用激活函数,生成最终的卷积层输出。卷积运算具有平移不变性和局部感知野特性,能够有效提取图像的边缘、纹理等局部特征。

四、本章重点、难点

本章的重点:神经元数据模型和经典的人工神经网络结构

本章的难点:BP神经网络和卷积神经网络的实现及其应用

【简答题】

  1. 简述神经元数学模型的基本组成及工作原理。

    参考答案:神经元数学模型由输入层、权重与偏置、激活函数三部分组成。工作原理:首先接收来自其他神经元或外部的输入信号;然后对输入信号进行加权求和,并加上偏置项;最后通过激活函数对加权和进行非线性变换,产生输出信号传递给下一层神经元。数学表达式为y = f(Σw_i x_i + b),其中y为输出,x_i为输入,w_i为权重,b为偏置,f为激活函数。

  2. 说明BP神经网络的训练过程。

    参考答案:BP神经网络的训练过程包括前向传播和反向传播两个阶段。前向传播阶段:输入信号从输入层经隐藏层传播至输出层,计算各层神经元的输出;反向传播阶段:首先计算输出层的误差(实际输出与期望输出的差值),然后将误差从输出层反向传播至隐藏层,计算各层的误差项;最后使用梯度下降法(或其变种)更新各层的权重和偏置,以最小化误差函数。重复上述过程,直至误差满足要求或达到最大迭代次数。

【应用题】

  1. 请设计一个BP神经网络用于手写数字识别任务,并说明各层的设计思路。
    参考答案:设计思路如下:
  • 输入层:手写数字图像通常为28×28像素,因此输入层神经元数量设为784(28×28)。
  • 隐藏层:可设置2个隐藏层,第一个隐藏层设为128个神经元,第二个隐藏层设为64个神经元,用于提取图像的层级特征。
  • 输出层:手写数字有0-9共10个类别,因此输出层神经元数量设为10,使用Softmax激活函数输出概率分布。
  • 激活函数:隐藏层使用ReLU函数,避免梯度消失问题;输出层使用Softmax函数。
  • 损失函数:使用交叉熵损失函数,适用于分类任务。
  • 优化器:使用Adam优化器,加速训练过程。
    训练流程:将MNIST手写数字数据集分为训练集、验证集和测试集;对图像数据进行归一化处理;使用训练集训练BP神经网络;通过验证集调整超参数;最后使用测试集评估模型性能。
  1. 简述卷积神经网络在图像分类中的应用流程,并说明卷积层和池化层的作用。
    参考答案:应用流程如下:
  2. 数据预处理:对图像进行归一化、尺寸调整、数据增强(如旋转、翻转)等处理。
  3. 网络设计:构建CNN架构,包括卷积层、池化层、全连接层等。
  4. 模型训练:使用标注的图像数据集训练CNN模型,优化权重和偏置。
  5. 模型评估:使用测试集评估模型的分类准确率等性能指标。
  6. 应用部署:将训练好的模型用于实际图像分类任务。

卷积层的作用:通过卷积核提取图像的局部特征,如边缘、纹理、形状等。其参数共享特性减少了模型参数数量,局部连接特性使神经元只关注图像的局部区域,符合视觉感知的局部性原理。

池化层的作用:对卷积层输出的特征图进行下采样,减少特征图的尺寸和参数数量,降低计算复杂度;同时增强模型的鲁棒性,使模型对输入的小变化(如平移、旋转)不敏感;还可以保持特征的空间结构信息。常见的池化操作有最大池化和平均池化。我需要查看用户提供的完整考试大纲文件,以确保我的补充内容符合整体大纲的结构和要求。用户已经提供了神经网络章节的具体内容,我将按照要求在每个知识点小节下方补充详细解释,并在重点难点部分添加简答题和应用题。(一)神经网络的发展历史

领会:深度学习的特点。

【详细解释】:深度学习是机器学习的一个重要分支,其核心特点是通过构建深层神经网络(通常包含多个隐藏层)来自动学习数据的层级特征表示。与传统机器学习方法相比,深度学习具有以下特点:1)自动特征提取能力,无需手工设计特征;2)强大的非线性建模能力,能够处理复杂的数据模式;3)对大规模数据的良好适应性,数据量越大,性能提升越明显;4)需要大量计算资源支持,通常依赖GPU等硬件加速;5)模型可迁移性强,预训练模型可用于多种任务。

(二)神经元与神经网络

识记:神经元数学模型,人工神经网络的分类。

【详细解释】:神经元数学模型是对生物神经元的简化模拟,通常包括三部分:1)输入层:接收来自其他神经元或外部的输入信号;2)权重与偏置:对输入信号进行加权求和;3)激活函数:对加权和进行非线性变换,产生输出信号。数学表达式为:y = f(Σw_i x_i + b),其中y为输出,x_i为输入,w_i为权重,b为偏置,f为激活函数。

人工神经网络的分类方式多样,按结构可分为:1)前馈神经网络(如感知器、BP神经网络):信号单向传播,无反馈环路;2)反馈神经网络(如Hopfield网络、玻尔兹曼机):包含反馈连接,可存储和处理动态信息;3)自组织神经网络(如Kohonen网络):无需监督,能自动聚类和特征映射。

领会:常用的激励函数及特点。

【详细解释】:激励函数是神经网络的核心组件,用于引入非线性特性,使网络能够学习复杂模式。常用的激励函数包括:1)sigmoid函数:将输入映射到(0,1)区间,导数在中间区域较大,两端接近0,易导致梯度消失;2)tanh函数:将输入映射到(-1,1)区间,中心对称,梯度消失问题较sigmoid轻;3)ReLU函数:输入大于0时输出等于输入,否则输出0,计算简单,有效缓解梯度消失,促进稀疏激活;4)Leaky ReLU函数:对ReLU的改进,输入小于0时输出较小的负值,避免神经元死亡现象;5)Softmax函数:将多分类问题的输出转换为概率分布,常用于输出层。

(三)BP神经网络及其学习算法

领会:BP神经网络结构。

【详细解释】:BP(Back Propagation)神经网络是一种多层前馈神经网络,其结构包括:1)输入层:接收外部输入数据;2)隐藏层:位于输入层和输出层之间,可包含一个或多个隐藏层,用于提取数据的层级特征;3)输出层:产生网络的预测结果。BP神经网络的核心特点是使用误差反向传播算法进行训练,通过比较实际输出与期望输出的误差,从输出层反向传播至输入层,逐层调整权重和偏置,最小化误差函数(通常为均方误差)。

简单应用:BP学习算法的实现。

【详细解释】:BP学习算法的实现步骤包括:1)初始化:随机初始化网络权重和偏置;2)前向传播:计算各层神经元的输入和输出;3)计算误差:根据输出层的实际输出与期望输出计算误差;4)反向传播:将误差从输出层反向传播至隐藏层,计算各层的误差项;5)更新权重和偏置:使用梯度下降法(或其变种)更新各层的权重和偏置;6)重复步骤2-5,直至误差满足要求或达到最大迭代次数。

综合应用:BP神经网络在模式识别中的应用。

【详细解释】:BP神经网络在模式识别领域应用广泛,如手写数字识别、图像分类、语音识别等。其应用流程通常包括:1)数据预处理:对原始数据进行归一化、特征选择等处理;2)网络设计:确定输入层神经元数量(与特征维度一致)、隐藏层数量和神经元数量、输出层神经元数量(与类别数一致);3)训练网络:使用标注数据训练BP神经网络;4)测试与评估:使用测试数据评估网络性能;5)应用:将训练好的网络用于实际模式识别任务。

(四)卷积神经网络

领会:卷积神经网络结构。

【详细解释】:卷积神经网络(CNN)是一种专门用于处理具有网格结构数据(如图像)的深度学习模型,其核心结构包括:1)卷积层:通过卷积核提取局部特征,具有参数共享和局部连接特性;2)池化层:对卷积层输出进行下采样,减少参数数量,增强模型鲁棒性;3)全连接层:将池化层输出的特征映射转换为最终的分类结果;4)激活函数:通常使用ReLU函数,引入非线性特性。典型的CNN架构(如LeNet-5、AlexNet)由多个卷积层和池化层交替堆叠,最后连接全连接层组成。

简单应用:卷积神经网络的卷积运算。

【详细解释】:卷积运算是CNN的核心操作,用于提取图像的局部特征。其计算过程为:1)将卷积核(通常为3×3、5×5等小尺寸矩阵)在输入特征图上滑动;2)在每个位置,将卷积核与对应的输入区域进行元素级相乘并求和,得到该位置的卷积输出;3)通过添加偏置并应用激活函数,生成最终的卷积层输出。卷积运算具有平移不变性和局部感知野特性,能够有效提取图像的边缘、纹理等局部特征。

四、本章重点、难点

本章的重点:神经元数据模型和经典的人工神经网络结构

本章的难点:BP神经网络和卷积神经网络的实现及其应用

【简答题】

  1. 简述神经元数学模型的基本组成及工作原理。

    参考答案:神经元数学模型由输入层、权重与偏置、激活函数三部分组成。工作原理:首先接收来自其他神经元或外部的输入信号;然后对输入信号进行加权求和,并加上偏置项;最后通过激活函数对加权和进行非线性变换,产生输出信号传递给下一层神经元。数学表达式为y = f(Σw_i x_i + b),其中y为输出,x_i为输入,w_i为权重,b为偏置,f为激活函数。

  2. 说明BP神经网络的训练过程。

    参考答案:BP神经网络的训练过程包括前向传播和反向传播两个阶段。前向传播阶段:输入信号从输入层经隐藏层传播至输出层,计算各层神经元的输出;反向传播阶段:首先计算输出层的误差(实际输出与期望输出的差值),然后将误差从输出层反向传播至隐藏层,计算各层的误差项;最后使用梯度下降法(或其变种)更新各层的权重和偏置,以最小化误差函数。重复上述过程,直至误差满足要求或达到最大迭代次数。

【应用题】

  1. 请设计一个BP神经网络用于手写数字识别任务,并说明各层的设计思路。
    参考答案:设计思路如下:
  • 输入层:手写数字图像通常为28×28像素,因此输入层神经元数量设为784(28×28)。
  • 隐藏层:可设置2个隐藏层,第一个隐藏层设为128个神经元,第二个隐藏层设为64个神经元,用于提取图像的层级特征。
  • 输出层:手写数字有0-9共10个类别,因此输出层神经元数量设为10,使用Softmax激活函数输出概率分布。
  • 激活函数:隐藏层使用ReLU函数,避免梯度消失问题;输出层使用Softmax函数。
  • 损失函数:使用交叉熵损失函数,适用于分类任务。
  • 优化器:使用Adam优化器,加速训练过程。
    训练流程:将MNIST手写数字数据集分为训练集、验证集和测试集;对图像数据进行归一化处理;使用训练集训练BP神经网络;通过验证集调整超参数;最后使用测试集评估模型性能。
  1. 简述卷积神经网络在图像分类中的应用流程,并说明卷积层和池化层的作用。
    参考答案:应用流程如下:
  2. 数据预处理:对图像进行归一化、尺寸调整、数据增强(如旋转、翻转)等处理。
  3. 网络设计:构建CNN架构,包括卷积层、池化层、全连接层等。
  4. 模型训练:使用标注的图像数据集训练CNN模型,优化权重和偏置。
  5. 模型评估:使用测试集评估模型的分类准确率等性能指标。
  6. 应用部署:将训练好的模型用于实际图像分类任务。

卷积层的作用:通过卷积核提取图像的局部特征,如边缘、纹理、形状等。其参数共享特性减少了模型参数数量,局部连接特性使神经元只关注图像的局部区域,符合视觉感知的局部性原理。

池化层的作用:对卷积层输出的特征图进行下采样,减少特征图的尺寸和参数数量,降低计算复杂度;同时增强模型的鲁棒性,使模型对输入的小变化(如平移、旋转)不敏感;还可以保持特征的空间结构信息。常见的池化操作有最大池化和平均池化。

第8章专家系统

三、考核知识点与考核要求
(一)专家系统概述
识记:专家系统的定义。

【详细解释】专家系统是一种模拟人类专家解决特定领域问题的计算机系统,它将领域专家的知识和经验以特定的形式存储在计算机中,通过推理机模拟专家的思维过程,解决只有专家才能解决的复杂问题。专家系统能够利用专家的知识和经验进行推理、判断和决策,主要应用于需要专业知识的领域,如医疗诊断、故障诊断、工程设计等。

领会:专家系统的基本结构。

【详细解释】专家系统的基本结构通常包括六个核心组件:

  1. 知识库:用于存储领域专家的知识,包括事实、规则和经验等,是专家系统的核心组成部分。
  2. 推理机:根据知识库中的知识和用户提供的事实进行推理,模拟专家的思维过程,求解问题。
  3. 综合数据库:用于存储问题求解过程中的初始数据、中间结果和最终结论等信息。
  4. 知识获取机制:负责从领域专家或其他知识源获取知识,并将其转化为计算机可存储的形式,输入到知识库中。
  5. 解释机构:向用户解释专家系统的推理过程和得出结论的依据,增强系统的透明度和可信度。
  6. 用户界面:实现用户与专家系统之间的交互,包括输入问题、提供事实和查看结果等功能。

(二)推理方法
识记:推理方法的分类。

【详细解释】推理方法主要分为两大类:

  1. 确定性推理:基于确定性知识进行的推理,推理过程中所使用的知识和推出的结论都是确定的。
  2. 非确定性推理 :基于非确定性知识进行的推理,推理过程中所使用的知识或推出的结论存在不确定性。
    根据推理的方向,推理方法还可分为:
  • 正向推理:从已知事实出发,正向使用规则,逐步推出结论的推理方法。
  • 逆向推理:从目标结论出发,逆向使用规则,逐步寻找支持结论的事实的推理方法。
  • 混合推理:结合正向推理和逆向推理的特点,综合两种推理方法的优势进行推理。

简单应用:用正向推理或逆向推理的方法基于专家系统进行推理。

【详细解释】

  • 正向推理过程
    1. 将用户提供的初始事实放入综合数据库中。
    2. 检查知识库中是否存在与综合数据库中的事实匹配的规则前提。
    3. 如果存在匹配的规则,将该规则的结论加入综合数据库中。
    4. 重复步骤2和3,直到没有可匹配的规则或推出目标结论。
  • 逆向推理过程
    1. 将目标结论作为假设放入假设集。
    2. 检查知识库中是否存在以该假设为结论的规则。
    3. 如果存在这样的规则,检查该规则的前提是否为已知事实或需要进一步假设。
    4. 如果前提是已知事实,则假设成立;如果前提需要进一步假设,则将前提作为新的假设加入假设集,重复步骤2和3。
    5. 直到所有假设都得到验证或无法验证。

(三)一个简单的专家系统
综合应用:根据已知的知识构建基于规则的专家系统知识库,并完成问题的推理。

【详细解释】构建基于规则的专家系统知识库的步骤:

  1. 知识获取:从领域专家或相关资料中获取知识,确定问题的领域范围和求解目标。
  2. 知识表示:将获取的知识转化为规则的形式,通常表示为"IF 条件 THEN 结论"的形式。
  3. 知识库构建:将表示好的规则存储到知识库中,确保规则之间的一致性和完整性。
  4. 推理实现 :根据用户提供的事实,利用推理机按照一定的推理策略(如正向推理或逆向推理)进行推理,得出结论。
    例如,构建一个简单的动物识别专家系统,知识库中包含以下规则:
  • 规则1:如果动物有毛发,那么它是哺乳动物。
  • 规则2:如果动物是哺乳动物且吃肉,那么它是食肉动物。
  • 规则3:如果动物是食肉动物且有黄褐色毛发且有黑色条纹,那么它是老虎。
    当用户提供事实"动物有毛发、吃肉、有黄褐色毛发、有黑色条纹"时,系统通过正向推理可得出结论"该动物是老虎"。

(四)非确定性推理
领会:在非确定性推理中的事实表示、规则表示、逻辑运算、规则运算和规则的合成。

【详细解释】

  • 事实表示:非确定性推理中,事实通常用一个数值表示其不确定性程度,称为可信度因子(CF),取值范围一般为[-1,1],其中1表示完全确定为真,-1表示完全确定为假,0表示不确定。
  • 规则表示:非确定性规则通常表示为"IF 条件 THEN 结论(CF)",其中CF表示该规则的可信度。
  • 逻辑运算
    • 合取(AND):多个条件的合取的可信度取各条件可信度的最小值。
    • 析取(OR):多个条件的析取的可信度取各条件可信度的最大值。
  • 规则运算:规则的结论的可信度计算方法为:CF(结论) = CF(条件) × CF(规则),其中CF(条件)是规则前提条件的可信度,CF(规则)是规则本身的可信度。
  • 规则的合成 :当多条规则推导出相同的结论时,需要将这些规则的结论的可信度进行合成。常用的合成方法有:
    • 设有两条规则推导出同一结论,可信度分别为CF1和CF2,则合成后的可信度CF为:
      CF = CF1 + CF2 - CF1×CF2(当CF1和CF2都为正时)
      CF = CF1 + CF2 + CF1×CF2(当CF1和CF2都为负时)
      CF = (CF1 + CF2)/(1 - min(|CF1|, |CF2|))(当CF1和CF2符号不同时)

四、本章重点、难点
本章的重点:专家系统的概念、结构和基本的推理方法。
本章的难点:专家系统的知识库构建和知识推理。

【简答题】

  1. 简述专家系统的定义和基本结构。

    参考答案:专家系统是一种模拟人类专家解决特定领域问题的计算机系统,它将领域专家的知识和经验存储在计算机中,通过推理机模拟专家的思维过程,解决复杂问题。专家系统的基本结构包括知识库、推理机、综合数据库、知识获取机制、解释机构和用户界面六个核心组件。

  2. 简述正向推理和逆向推理的基本过程。

    参考答案:正向推理是从已知事实出发,正向使用规则,逐步推出结论的推理方法。过程为:将初始事实放入综合数据库,检查知识库中是否有匹配规则,若有则将结论加入综合数据库,重复直到推出目标结论。逆向推理是从目标结论出发,逆向使用规则,逐步寻找支持结论的事实的推理方法。过程为:将目标作为假设,检查是否有以该假设为结论的规则,若有则检查前提是否为已知事实或需进一步假设,重复直到所有假设都得到验证或无法验证。

【应用题】

  1. 构建一个简单的疾病诊断专家系统知识库,包含以下规则:
  • 规则1:如果病人有发热、咳嗽症状,那么可能患有感冒(CF=0.8)。
  • 规则2:如果病人有发热、咽喉肿痛症状,那么可能患有咽喉炎(CF=0.7)。
  • 规则3:如果病人患有感冒且有头痛症状,那么可能患有流感(CF=0.9)。
    现有病人症状:发热(CF=0.9)、咳嗽(CF=0.8)、头痛(CF=0.7),请使用非确定性推理方法计算病人患有流感的可信度。

参考答案:

  • 首先,根据规则1,计算患有感冒的可信度:
    CF(感冒) = min(CF(发热), CF(咳嗽)) × CF(规则1) = min(0.9, 0.8) × 0.8 = 0.8 × 0.8 = 0.64
  • 然后,根据规则3,计算患有流感的可信度:
    CF(流感) = min(CF(感冒), CF(头痛)) × CF(规则3) = min(0.64, 0.7) × 0.9 = 0.64 × 0.9 = 0.576
    因此,病人患有流感的可信度为0.576。
  1. 假设有以下规则的专家系统知识库:
  • 规则1:如果动物有羽毛,那么它是鸟类(CF=1.0)。
  • 规则2:如果动物是鸟类且会飞,那么它是飞禽(CF=0.9)。
  • 规则3:如果动物是飞禽且有红色羽毛,那么它是火烈鸟(CF=0.8)。
    现有事实:动物有羽毛(CF=1.0)、会飞(CF=0.9)、有红色羽毛(CF=0.8),请使用正向推理方法得出结论,并说明推理过程。

参考答案:

推理过程如下:

  1. 将初始事实"有羽毛(CF=1.0)、会飞(CF=0.9)、有红色羽毛(CF=0.8)"放入综合数据库。
  2. 检查知识库,发现规则1的前提"有羽毛"与综合数据库中的事实匹配,执行规则1,将结论"鸟类(CF=1.0×1.0=1.0)"加入综合数据库。
  3. 检查知识库,发现规则2的前提"是鸟类且会飞"与综合数据库中的事实匹配,执行规则2,将结论"飞禽(CF=min(1.0, 0.9)×0.9=0.9×0.9=0.81)"加入综合数据库。
  4. 检查知识库,发现规则3的前提"是飞禽且有红色羽毛"与综合数据库中的事实匹配,执行规则3,将结论"火烈鸟(CF=min(0.81, 0.8)×0.8=0.8×0.8=0.64)"加入综合数据库。
  5. 没有更多可匹配的规则,推理结束。
    最终结论:该动物是火烈鸟,可信度为0.64。

第9章计算机视觉

(一)计算机视觉概述

领会:计算机视觉包含的各种任务。

【详细解释】:计算机视觉是让计算机模拟人类视觉系统,对图像或视频进行理解和分析的技术。其包含的主要任务有:1)图像分类:将图像归类到预定义的类别中,如识别图像中的物体是猫还是狗;2)目标检测:在图像中定位并识别多个目标,输出目标的边界框和类别;3)语义分割:将图像中的每个像素分配到特定类别,实现像素级别的分类;4)实例分割:在语义分割基础上,进一步区分同一类别的不同实例;5)图像生成:根据输入生成新的图像,如GAN生成逼真图像;6)图像增强:改善图像质量,如去噪、超分辨率;7)人脸相关任务:人脸识别、表情识别、姿态估计等;8)视频分析:视频分类、动作识别、视频跟踪等。

(二)数字图像的类型及机内表示

领会:图像在计算机中的表示方法,像素点数值的意义。

【详细解释】:数字图像在计算机中主要有两种表示方法:1)位图(栅格图):由像素阵列组成,每个像素包含颜色或灰度信息,如BMP、JPEG、PNG格式;2)矢量图:由数学公式描述的图形元素(点、线、面)组成,如SVG格式,可无限缩放不失真。

像素点数值的意义因图像类型而异:在灰度图像中,像素值通常为8位整数(0-255),0表示黑色,255表示白色,中间值表示不同灰度级的灰色;在RGB彩色图像中,每个像素由红(R)、绿(G)、蓝(B)三个通道组成,每个通道8位(0-255),不同通道值组合表示不同颜色;在二值图像中,像素值仅为0(黑色)或1(白色),用于表示简单的黑白图像。

(三)常用计算机视觉模型和关键技术

领会:浅层视觉模型的处理流程、经典的全局特征提取GIST特征和局部特征提取LBP、基于深度模型实现的视觉任务。

【详细解释】:浅层视觉模型的处理流程通常包括:1)图像预处理(如灰度化、归一化);2)特征提取(手工设计特征);3)特征选择与降维;4)分类器训练与预测。

GIST特征是一种全局特征,用于描述图像的整体空间结构和场景布局,通过多尺度、多方向的Gabor滤波提取图像的纹理和方向信息,常用于场景分类。

LBP(局部二值模式)是一种局部特征,通过比较中心像素与周围邻域像素的灰度值,生成二进制编码来描述局部纹理特征,具有旋转不变性和光照鲁棒性,常用于人脸识别、纹理分类等。

基于深度模型实现的视觉任务包括:使用卷积神经网络(CNN)进行图像分类、目标检测;使用循环神经网络(RNN)或Transformer进行视频分析;使用生成对抗网络(GAN)进行图像生成;使用注意力机制增强模型对关键区域的关注等。

简单应用:局部二值模式LBP算子的计算原理。

【详细解释】:LBP算子的计算原理如下:1)选取图像中一个像素作为中心像素,考虑其周围8个邻域像素(3×3窗口);2)将中心像素的灰度值作为阈值,依次比较每个邻域像素与中心像素的灰度值;3)若邻域像素灰度值大于等于中心像素,则该位置编码为1,否则为0;4)将8个邻域像素的比较结果按顺时针或逆时针方向排列,形成一个8位二进制数,转换为十进制后作为该中心像素的LBP值;5)对图像中所有像素重复上述过程,得到LBP特征图。LBP算子可扩展为多尺度LBP(如圆形LBP),通过改变邻域大小和采样点数量来适应不同尺度的纹理特征。

(四)应用实例:人脸识别技术

简单应用:人脸识别的典型流程及每个步骤要达到的目标。

【详细解释】:人脸识别的典型流程及各步骤目标如下:1)图像采集:获取包含人脸的图像或视频帧,目标是获取清晰、正面的人脸图像;2)人脸检测:在图像中定位人脸区域,输出人脸边界框,目标是准确找到所有存在的人脸;3)人脸对齐:对检测到的人脸进行几何校正,如旋转、缩放、平移,使眼睛、鼻子等关键特征点位于标准位置,目标是统一人脸姿态,提高后续处理的准确性;4)特征提取:从对齐后的人脸图像中提取具有判别性的特征,如LBP特征、深度特征等,目标是将人脸图像转换为可用于比较的特征向量;5)特征匹配:将待识别人脸的特征向量与数据库中已知人脸的特征向量进行比对,计算相似度,目标是找到最相似的人脸;6)决策与输出:根据相似度阈值判断是否匹配,并输出识别结果,目标是准确识别人脸身份。

四、本章重点、难点

本章的重点:图像的计算机表示及计算机对图像的处理原理和一般化流程。

本章的难点:特征提取的作用及其计算实现。

【简答题】

  1. 简述计算机视觉的定义及主要包含的任务类型。

    参考答案:计算机视觉是一门研究如何使计算机模拟人类视觉系统,对图像或视频进行理解和分析的技术学科。其主要包含的任务类型有:图像分类(将图像归类到预定义类别)、目标检测(定位并识别图像中的多个目标)、语义分割(像素级分类)、实例分割(区分同一类别的不同实例)、图像生成(生成新图像)、图像增强(改善图像质量)、人脸相关任务(识别、表情分析等)以及视频分析(动作识别、跟踪等)。

  2. 解释数字图像中像素点数值的意义,并说明灰度图像与RGB彩色图像的表示差异。

    参考答案:像素点数值的意义因图像类型而异:在灰度图像中,像素值通常为0-255的整数,0表示黑色,255表示白色,中间值表示不同灰度级的灰色;在RGB彩色图像中,每个像素由红(R)、绿(G)、蓝(B)三个通道组成,每个通道值范围0-255,不同通道值组合表示不同颜色。两者的表示差异在于:灰度图像每个像素只需一个数值表示亮度,数据量较小;RGB彩色图像每个像素需要三个数值表示颜色分量,数据量是灰度图像的三倍,但能呈现丰富的色彩信息。

  3. 简述特征提取在计算机视觉中的作用。

    参考答案:特征提取在计算机视觉中的作用主要有:1)降维:将高维的图像数据转换为低维的特征向量,减少计算量和存储需求;2)去噪:过滤图像中的冗余信息和噪声,保留关键的判别性信息;3)增强判别性:提取图像中最能区分不同类别的特征,提高后续分类或识别任务的准确性;4)不变性:使提取的特征对图像的平移、旋转、缩放、光照变化等具有一定的鲁棒性,增强模型的泛化能力;5)桥接图像与语义:将底层的像素信息转换为高层的语义特征,使计算机能够理解图像内容。

【应用题】

  1. 请详细描述局部二值模式(LBP)算子的计算过程,并举例说明其在人脸识别中的应用优势。
    参考答案:LBP算子的计算过程如下:
    (1)选择图像中一个像素作为中心像素,考虑其3×3邻域内的8个像素点;
    (2)将中心像素的灰度值作为阈值,依次比较每个邻域像素与中心像素的灰度值;
    (3)若邻域像素灰度值≥中心像素,则该位置编码为1,否则为0;
    (4)将8个邻域像素的比较结果按顺时针方向排列,形成一个8位二进制数,转换为十进制后作为该中心像素的LBP值;
    (5)遍历图像中所有像素,生成LBP特征图。

在人脸识别中的应用优势:

(1)计算简单,计算量小,适合实时应用;

(2)具有灰度不变性,对光照变化有较强的鲁棒性;

(3)具有旋转不变性(通过圆形LBP扩展),能适应人脸姿态的小幅度变化;

(4)提取的局部纹理特征对人脸的细节信息敏感,有利于区分不同个体;

(5)与其他特征(如GIST特征)结合使用,可提高人脸识别的准确性。

  1. 设计一个简单的人脸识别系统流程,并说明每个步骤的关键技术和实现目标。
    参考答案:人脸识别系统的设计流程及各步骤关键技术和目标如下:
    (1)图像采集:
    • 关键技术:使用摄像头或图像数据库获取图像;
    • 目标:获取包含清晰人脸的图像,尽量保证光照均匀、人脸正面朝向。

(2)人脸检测:

  • 关键技术:使用Haar特征+Adaboost分类器、HOG特征+SVM、或基于深度学习的MTCNN、RetinaFace等算法;
  • 目标:准确检测图像中所有人脸的位置,输出人脸边界框坐标。

(3)人脸对齐:

  • 关键技术:使用特征点检测算法(如ASM、AAM或深度学习方法)定位眼睛、鼻子、嘴巴等关键特征点;
  • 目标:通过仿射变换将人脸校正为标准姿态,使关键特征点位于预设位置,消除姿态差异。

(4)特征提取:

  • 关键技术:使用LBP特征、Gabor特征等手工特征,或基于CNN的深度特征(如FaceNet、ArcFace);
  • 目标:将对齐后的人脸图像转换为高维特征向量,保留人脸的判别性信息。

(5)特征匹配与识别:

  • 关键技术:使用欧氏距离、余弦相似度等度量方法计算特征向量间的相似度;
  • 目标:将待识别人脸的特征向量与数据库中已知人脸的特征向量进行比对,找到相似度最高的匹配结果。

(6)决策输出:

  • 关键技术:设置相似度阈值,判断是否为同一人;
  • 目标:输出识别结果(如身份信息),并给出置信度评分。

通过以上流程,可以实现一个基本的人脸识别系统,其中深度特征提取和匹配算法的选择对系统性能(准确性、实时性)具有关键影响。

第10章自然语言处理

(一)自然语言处理概述

领会:自然语言处理的基本任务和自然语言处理发展的三个阶段。

【详细解释】:自然语言处理(NLP)是人工智能的分支学科,旨在使计算机理解、生成和处理人类自然语言。其基本任务包括:1)基础任务:分词、词性标注、命名实体识别、句法分析、语义分析等;2)应用任务:机器翻译、文本分类、情感分析、信息检索、问答系统、对话系统等。

自然语言处理发展的三个阶段:1)规则阶段(1950-1990年):基于语言学规则和人工编写的语法,如乔姆斯基的形式语言理论,局限性是难以覆盖所有语言现象;2)统计阶段(1990-2010年):基于大规模语料库和统计模型,如隐马尔可夫模型(HMM)、条件随机场(CRF),能处理更复杂的语言问题,但依赖人工特征工程;3)深度学习阶段(2010年至今):基于神经网络模型,如循环神经网络(RNN)、Transformer,能自动学习语言特征,性能显著提升,代表模型有BERT、GPT等。

(二)机器翻译

识记:完全基于注意力网络的神经翻译模型Transformer。

【详细解释】:Transformer是2017年由Google提出的完全基于注意力机制的神经机器翻译模型,其核心特点是:1)摒弃了传统的循环结构,采用全自注意力机制,能并行处理序列数据,提高训练效率;2)由编码器(Encoder)和解码器(Decoder)两部分组成,编码器负责将源语言序列转换为上下文表示,解码器负责生成目标语言序列;3)使用多头注意力机制(Multi-Head Attention),能同时关注不同位置和不同子空间的信息;4)引入位置编码(Positional Encoding),解决非循环结构无法捕捉序列顺序的问题;5)采用残差连接(Residual Connection)和层归一化(Layer Normalization),缓解梯度消失问题,加速训练。

领会:机器翻译发展的四个阶段及其核心思想,注意力机制在机器翻译中的作用。

【详细解释】:机器翻译发展的四个阶段:1)基于规则的机器翻译(1950-1980年):核心思想是利用人工编写的语法规则和词典进行翻译,包括直接翻译、转换翻译和中间语言翻译;2)基于统计的机器翻译(1980-2010年):核心思想是利用大规模平行语料库,通过统计模型学习翻译概率,如基于短语的统计机器翻译;3)神经机器翻译(2010-2017年):核心思想是使用神经网络(如RNN、LSTM)构建端到端的翻译模型,能自动学习源语言到目标语言的映射;4)基于注意力的神经机器翻译(2017年至今):核心思想是引入注意力机制,解决长序列翻译中的信息丢失问题,代表模型是Transformer。

注意力机制在机器翻译中的作用:1)让模型在生成目标词时,能动态关注源语言序列中与当前翻译最相关的部分,提高翻译准确性;2)解决长距离依赖问题,避免传统RNN模型在处理长句子时的信息衰减;3)提供可解释性,通过注意力权重可视化,可观察模型关注的源语言区域;4)提高翻译质量,特别是在长句、复杂句的翻译中表现更优。

(三)自然语言人机交互

领会:对话系统和聊天机器人的共性和区别,对话系统的三个模块及其功能。聊天机器人基于技术的分类。

【详细解释】:对话系统和聊天机器人的共性是都实现人机语言交互;区别在于:对话系统更强调任务导向,旨在帮助用户完成特定任务(如预订机票),而聊天机器人更侧重开放域闲聊,旨在与用户进行自然、流畅的日常对话。

对话系统的三个模块及其功能:1)自然语言理解(NLU):将用户输入的自然语言转换为机器可理解的形式,包括意图识别和槽位填充;2)对话管理(DM):维护对话状态,决定下一步系统动作,包括对话状态跟踪和对话策略学习;3)自然语言生成(NLG):将系统动作转换为自然语言输出,生成流畅、自然的回复。

聊天机器人基于技术的分类:1)检索式聊天机器人:从预定义的回复库中检索最合适的回复,依赖关键词匹配或机器学习模型;2)生成式聊天机器人:根据用户输入动态生成新的回复,基于神经网络生成模型(如RNN、Transformer)。

简单应用:检索式聊天机器人的系统架构,生成式聊天机器人的模型架构。

【详细解释】:检索式聊天机器人的系统架构通常包括:1)用户输入处理:对用户输入进行分词、词性标注等预处理;2)特征提取:提取用户输入的语义特征,如词向量、TF-IDF特征;3)检索模块:通过相似度计算(如余弦相似度)从回复库中检索与用户输入最匹配的回复候选;4)排序模块:对候选回复进行排序,选择最优回复;5)回复生成:输出最终回复。

生成式聊天机器人的模型架构通常基于编码器-解码器结构:1)编码器:将用户输入序列转换为固定长度的上下文向量,常用RNN、LSTM、Transformer编码器;2)解码器:基于上下文向量生成目标回复序列,常用RNN、LSTM、Transformer解码器;3)注意力机制:在生成回复时,关注用户输入中与当前生成词相关的部分;4)训练策略:使用最大似然估计训练模型,常用束搜索(Beam Search)生成回复。

(四)智能问答

领会:智能问答任务的分类。

【详细解释】:智能问答任务可按不同维度分类:1)按答案来源分:事实型问答(答案来自结构化知识库,如知识图谱)、开放域问答(答案来自非结构化文本);2)按问题类型分:实体型问答(如"鲁迅的代表作是什么?")、关系型问答(如"姚明的身高是多少?")、列表型问答(如"中国的直辖市有哪些?")、摘要型问答(如"简述光合作用的过程");3)按技术方法分:基于规则的问答、基于统计的问答、基于深度学习的问答、基于知识图谱的问答。

简单应用:基于知识图谱的问答系统设计。

【详细解释】:基于知识图谱的问答系统设计流程包括:1)知识图谱构建:收集领域知识,构建实体、关系、属性的结构化知识图谱;2)问题解析:将用户自然语言问题转换为机器可理解的查询形式,包括实体识别(识别问题中的实体)、关系抽取(识别实体间的关系)、查询构建(生成知识图谱查询语言,如SPARQL);3)知识图谱查询:使用生成的查询语言在知识图谱中检索相关信息;4)答案生成与排序:将检索结果转换为自然语言答案,进行排序和筛选;5)答案输出:返回最终答案给用户。关键技术包括命名实体识别、关系抽取、知识图谱构建与存储、自然语言查询生成等。

四、本章重点、难点

本章的重点:自然语言处理的发展,自然语言处理的三个典型任务:机器翻译、自然语言人机交互和智能问答。

本章的难点:自然语言处理任务的核心算法理解。

【简答题】

  1. 简述自然语言处理发展的三个阶段及其核心特点。

    参考答案:自然语言处理发展的三个阶段及其核心特点如下:

    (1)规则阶段(1950-1990年):核心特点是基于语言学专家编写的语法规则和词典进行语言处理,如乔姆斯基的形式语言理论。优点是规则明确、可解释性强;缺点是难以覆盖所有语言现象,维护成本高。

    (2)统计阶段(1990-2010年):核心特点是利用大规模语料库和统计模型(如隐马尔可夫模型、条件随机场)学习语言规律。优点是能处理复杂语言现象,性能优于规则方法;缺点是依赖人工特征工程,对数据质量要求高。

    (3)深度学习阶段(2010年至今):核心特点是使用神经网络模型(如循环神经网络、Transformer)自动学习语言特征,实现端到端的语言处理。优点是无需人工设计特征,能捕捉复杂的语言模式,性能显著提升;缺点是模型复杂度高,需要大量标注数据和计算资源。

  2. 说明注意力机制在机器翻译中的作用。

    参考答案:注意力机制在机器翻译中的作用主要包括:

    (1)动态关注源语言信息:在生成目标语言的每个词时,模型能动态关注源语言序列中与当前翻译最相关的部分,提高翻译准确性。

    (2)解决长距离依赖问题:传统循环神经网络(RNN)在处理长句子时,容易出现信息衰减,注意力机制能直接访问源语言的所有位置,有效捕捉长距离依赖关系。

    (3)提供模型可解释性:通过注意力权重的可视化,可以直观观察模型在生成每个目标词时关注的源语言区域,增强模型的可解释性。

    (4)提升翻译质量:特别是在长句、复杂句的翻译中,注意力机制能显著提高翻译的流畅度和准确性,解决神经机器翻译中的"曝光偏差"问题。

【应用题】

  1. 设计一个基于知识图谱的电影问答系统,详细说明其架构和关键技术。
    参考答案:基于知识图谱的电影问答系统设计如下:
    (1)系统架构:
    • 知识图谱层:构建电影领域的知识图谱,包含实体(如电影、导演、演员)、关系(如"导演是""主演是")、属性(如"上映时间""评分")。
    • 问题处理层:接收用户自然语言问题,进行预处理(分词、词性标注)和语义解析。
    • 查询生成层:将解析后的问题转换为知识图谱查询语言(如SPARQL)。
    • 知识检索层:执行SPARQL查询,从知识图谱中获取相关信息。
    • 答案生成层:将检索结果转换为自然语言答案,进行排序和优化。
    • 用户交互层:展示最终答案给用户。

(2)关键技术:

  • 知识图谱构建:使用爬虫技术从电影网站收集数据,通过实体识别、关系抽取构建知识图谱,使用Neo4j等图数据库存储。
  • 命名实体识别:识别问题中的电影、导演、演员等实体,可使用BERT等预训练模型。
  • 关系抽取:识别实体间的关系(如"《流浪地球》的导演是谁?"中的"导演是"关系)。
  • SPARQL查询生成:将自然语言问题映射为SPARQL查询,如将"谁主演了《红海行动》?"转换为查询电影《红海行动》的"主演"关系。
  • 答案生成:将SPARQL查询结果转换为自然语言,如将检索到的演员列表组织为"《红海行动》的主演有张译、黄景瑜等。"

(3)应用示例:

  • 用户提问:"《我不是药神》的导演是谁?"
  • 处理流程:识别实体"《我不是药神》",抽取关系"导演是",生成SPARQL查询,从知识图谱中检索到"文牧野",生成答案"《我不是药神》的导演是文牧野。"
  1. 比较检索式聊天机器人和生成式聊天机器人的优缺点,并说明它们的适用场景。
    参考答案:检索式聊天机器人和生成式聊天机器人的比较如下:
    (1)检索式聊天机器人:
    • 优点:回复质量稳定,生成速度快,计算资源消耗低,易于控制回复内容的安全性。
    • 缺点:回复受限于预定义的回复库,缺乏创造性,难以处理未知问题,扩展性差。
    • 适用场景:任务导向型交互(如客服机器人、FAQ系统),需要准确、可控回复的场景。

(2)生成式聊天机器人:

  • 优点:能生成新颖、多样化的回复,可处理开放域问题,扩展性强。
  • 缺点:回复质量不稳定,可能生成错误或不合理内容,计算资源消耗高,难以保证内容安全性。
  • 适用场景:开放域闲聊(如社交机器人),需要创造性回复的场景。

(3)实际应用中的结合策略:

在实际应用中,可将两种类型的聊天机器人结合使用:对于常见问题,使用检索式机器人提供准确回复;对于开放域问题,使用生成式机器人提供灵活回复。例如,智能客服系统中,检索式模块处理常见的产品咨询,生成式模块处理用户的个性化问题或闲聊请求,以提高用户体验。

第11章多智能体系统

(一)智能体

领会:智能体的定义和性质,智能体和其他软件实体的区别。

【详细解释】:智能体(Agent)是指能感知环境并通过自主行动影响环境,以实现特定目标的计算实体。其核心性质包括:1)自主性:能在无人类直接干预下自主运行,控制自身行为和内部状态;2)反应性:能感知环境变化并及时做出响应;3)主动性:能主动采取行动以实现目标;4)社会性:能与其他智能体或人类进行交互;5)适应性:能从经验中学习,适应环境变化。

智能体与其他软件实体的区别:传统软件被动执行预设指令,而智能体具有自主性和主动性,能根据环境变化动态调整行为;传统软件通常功能单一,智能体可集成多种功能且具有社会交互能力;智能体强调目标导向,通过感知-决策-行动循环实现目标,而传统软件更注重任务执行流程。

(二)智能体的具体结构

识记:智能体的5种实现方式。

【详细解释】:智能体的5种实现方式包括:1)简单反射型智能体:基于当前感知的环境状态,通过条件-行动规则直接映射行动,仅能处理当前状态,无记忆能力;2)基于模型的反射型智能体:维护内部模型表示环境状态,结合模型和当前感知决策行动,能处理部分不可见环境;3)基于目标的智能体:引入目标信息,通过搜索算法选择能实现目标的行动序列,具有更明确的目的性;4)基于效用的智能体:不仅考虑目标实现,还评估行动的效用值,选择效用最大的行动,能处理多目标冲突;5)学习型智能体:通过学习机制改进自身性能,包含学习元件、性能元件、评判元件和问题生成器四部分,具有适应性。

领会:智能体的包孕结构和基于BDI逻辑的结构。

【详细解释】:智能体的包孕结构(Nested Structure)是指智能体由多个子智能体组成,子智能体具有独立的感知、决策和行动能力,通过协同完成复杂任务。包孕结构可实现功能模块化,提高系统灵活性和可维护性,子智能体之间可通过通信或共享资源进行协作。

基于BDI逻辑的结构是一种认知型智能体结构,核心概念包括:1)信念(Belief):智能体对环境的认知和知识;2)愿望(Desire):智能体希望实现的目标集合;3)意图(Intention):智能体当前承诺要实现的目标及行动计划。BDI结构通过信念更新、愿望过滤和意图选择的循环过程实现智能决策,能模拟人类的理性决策过程,适用于复杂的多目标、动态环境。

(三)多智能体协商

领会:纳什均衡和帕里托优策略思想,多智能体协商三种工具:投票、拍卖和谈判。

【详细解释】:纳什均衡是博弈论中的核心概念,指在多人博弈中,当每个智能体选择的策略都是对其他智能体策略的最优响应时,形成的策略组合。此时,任何智能体单方面改变策略都无法提高自身收益。

帕里托优策略(帕累托最优)是指在多智能体系统中,不存在其他策略组合能使至少一个智能体收益增加而不降低其他智能体收益的状态。帕里托最优是一种效率最高的资源分配状态。

多智能体协商的三种工具:1)投票:通过群体决策机制选择最优方案,常用方法包括多数投票、计分投票、排序投票等,适用于群体偏好聚合;2)拍卖:通过竞价机制分配资源,常用方式包括英式拍卖、荷兰式拍卖、密封拍卖等,适用于资源稀缺场景;3)谈判:智能体通过多轮交互和妥协达成共识,常用协议包括交替提议协议、调解协议等,适用于复杂的利益冲突场景。

简单应用:智能体用计分投票决策。

【详细解释】:计分投票是一种群体决策方法,智能体用计分投票决策的实现步骤如下:1)确定候选方案集合:列出所有可能的决策方案;2)设置计分规则:为每个方案分配分数(如0-5分),分数越高表示偏好越强;3)智能体评分:每个智能体根据自身偏好对各方案打分;4)分数聚合:计算所有方案的总得分或平均得分;5)选择方案:选择得分最高的方案作为群体决策结果。

例如,在多智能体任务分配中,候选方案包括方案A、B、C,智能体1给A打5分、B打3分、C打1分,智能体2给A打4分、B打5分、C打2分,总分为A=9、B=8、C=3,最终选择方案A。计分投票的优点是能反映智能体的偏好强度,缺点是可能受极端评分影响。

四、本章重点、难点

本章的重点:多智能体的概念、实现及其协商方式。

本章的难点:投票策略的计算机实现。

【简答题】

  1. 简述智能体的定义及其核心性质。

    参考答案:智能体是能感知环境并通过自主行动影响环境,以实现特定目标的计算实体。其核心性质包括:1)自主性:无人类直接干预下自主运行,控制自身行为和状态;2)反应性:感知环境变化并及时响应;3)主动性:主动采取行动实现目标;4)社会性:与其他智能体或人类交互;5)适应性:从经验中学习,适应环境变化。

  2. 说明基于BDI逻辑的智能体结构的核心概念及其工作原理。

    参考答案:基于BDI逻辑的智能体结构核心概念包括信念(Belief)、愿望(Desire)和意图(Intention)。信念是智能体对环境的认知和知识;愿望是智能体希望实现的目标集合;意图是智能体当前承诺要实现的目标及行动计划。其工作原理是通过信念更新(感知环境变化,修正对环境的认知)、愿望过滤(从愿望中选择符合当前信念的目标)、意图选择(从过滤后的目标中确定当前要执行的意图并生成行动计划)的循环过程,模拟人类理性决策,实现智能行为。

  3. 简述多智能体协商的三种主要工具及其适用场景。

    参考答案:多智能体协商的三种主要工具及适用场景如下:1)投票:通过群体决策机制聚合偏好,适用于需要集体达成共识的场景,如会议决议、方案选择;2)拍卖:通过竞价分配资源,适用于资源稀缺、需要高效分配的场景,如网络带宽分配、任务调度;3)谈判:通过多轮交互妥协达成共识,适用于利益冲突复杂、需要灵活调整的场景,如商务谈判、多智能体协作任务。

【应用题】

  1. 设计一个基于计分投票的多智能体会议时间安排系统,详细说明其实现流程和关键技术。
    参考答案:基于计分投票的多智能体会议时间安排系统设计如下:
    (1)系统架构:
    • 用户界面层:接收参会者(智能体/人类)的可用时间和偏好输入。
    • 智能体层:每个参会者对应一个智能体,负责维护自身偏好和参与投票。
    • 投票处理层:收集智能体评分,聚合分数并选择最优时间。
    • 结果展示层:展示最终选定的会议时间。

(2)实现流程:

  1. 候选时间生成:系统根据预设规则(如工作时间内)生成多个候选会议时间(如周一10:00、周二14:00等)。
  2. 智能体偏好收集:每个智能体根据参会者的可用时间和偏好,对候选时间评分(如0-5分,0表示不可用,5表示最偏好)。
  3. 分数聚合:采用加权平均法聚合分数(如每个智能体权重相同),计算每个候选时间的总得分。
  4. 最优时间选择:选择得分最高的候选时间,若存在并列,可通过随机选择或进一步细化评分解决。
  5. 结果反馈:将选定时间通知所有参会者智能体。

(3)关键技术:

  • 偏好表示:使用向量表示智能体对候选时间的评分,便于计算和比较。
  • 分数聚合算法:实现加权平均、总和等聚合方法,处理不同场景需求。
  • 冲突处理:当得分最高时间无法满足多数智能体时,重新生成候选时间或调整评分规则。

(4)示例代码(简化版):

python 复制代码
# 候选会议时间
candidate_times = ["周一10:00", "周二14:00", "周三15:00"]
# 智能体评分(智能体1-3对候选时间的评分)
agent_ratings = [
    [5, 3, 2],  # 智能体1评分
    [4, 5, 1],  # 智能体2评分
    [3, 4, 5]   # 智能体3评分
]
# 计算每个候选时间的总得分
total_scores = [sum(ratings) for ratings in zip(*agent_ratings)]
# 选择得分最高的时间
best_time_index = total_scores.index(max(total_scores))
best_time = candidate_times[best_time_index]
print(f"最优会议时间:{best_time},总得分:{total_scores[best_time_index]}")

输出:最优会议时间:周二14:00,总得分:12

  1. 分析纳什均衡在多智能体协商中的应用,并举例说明其对协商结果的影响。
    参考答案:纳什均衡在多智能体协商中的应用主要体现在策略选择和协议设计上,确保协商结果的稳定性。

(1)应用原理:在多智能体协商中,每个智能体选择策略以最大化自身收益,当所有智能体的策略形成纳什均衡时,任何智能体单方面改变策略都无法提高收益,协商结果达到稳定状态。

(2)影响分析:

  • 稳定性:纳什均衡的协商结果具有稳定性,智能体无动机偏离当前策略,便于系统维护。
  • 效率性:并非所有纳什均衡都是帕累托最优,可能存在"囚徒困境"式的低效均衡,需要通过机制设计(如引入惩罚机制)引导智能体选择帕累托最优的纳什均衡。

(3)应用示例:多智能体资源分配协商

场景:两个智能体A和B协商分配两种资源X和Y,策略组合及收益如下(括号内为A收益,B收益):

  • 策略1:A选X,B选Y → (3,3)
  • 策略2:A选Y,B选X → (3,3)
  • 策略3:A选X,B选X → (1,1)
  • 策略4:A选Y,B选Y → (1,1)
    分析:策略1和策略2均为纳什均衡且帕累托最优,智能体通过协商达成这两种策略之一,结果稳定且高效;若智能体同时选择相同资源(策略3或4),虽为纳什均衡但效率低下,需通过协商机制引导智能体选择最优策略。

(4)实现策略:在多智能体协商系统中,可通过预定义收益矩阵、引入学习机制(如Q-learning)使智能体逐步收敛到纳什均衡,或设计激励机制引导智能体选择帕累托最优的纳什均衡策略,提高协商效率。

附录 题型举例(含完整参考答案)

一、单项选择题(在每小题后的4个备选项中只有一个是符合题目要求的,请将其选出并填写在题后的括号内)

1.(A)就是在已知输入和输出的情况下训练出一个模型,将输入映射到输出。

A.监督学习 B.无监督学习

C. 弱监督学习 D.专家系统
参考答案解析

  • 核心考点:监督学习的定义(广东自考机器学习高频考点)。
  • 解析:监督学习的核心特征是训练数据包含「输入+标注好的输出(标签)」,模型通过学习输入与输出的映射关系完成预测;无监督学习无标注输出,仅做数据聚类/降维;弱监督学习是监督学习的子集,标注信息不完整;专家系统是基于规则的推理系统,非机器学习的映射训练模式。
二、名词解释题

1.深度优先搜索
参考答案 (符合广东自考评分标准,采分点标注):

深度优先搜索(DFS)是一种图/树的遍历算法 (采分点1),其核心思想是从起始节点出发,优先沿着一条路径遍历至最深层节点 (采分点2),若无法继续前进则回溯至最近的未完全遍历的节点,重复该过程直至遍历所有节点(采分点3)。该算法通常采用递归或栈结构实现,适用于路径查找、拓扑排序等场景(采分点4)。
自考易错提示:需区分深度优先搜索与广度优先搜索(BFS)的核心差异------DFS是"先深后广",BFS是"先广后深",自考常考二者对比。

三、简答题

1.K-近邻算法的核心思想是什么?
参考答案 (标注采分点,贴合自考答题规范):

K-近邻(KNN)算法是一种基于实例的惰性学习算法,核心思想可概括为3点:

  1. 相似性判定(采分点1):给定测试样本,计算其与训练集中所有样本的距离(常用欧氏距离、曼哈顿距离),衡量样本间的相似性;
  2. 近邻选取(采分点2):选取距离最近的K个训练样本作为该测试样本的"近邻"(K为预先设定的正整数);
  3. 多数投票决策 (采分点3):根据K个近邻的类别(分类问题)或均值(回归问题),确定测试样本的最终类别/预测值,即"少数服从多数"。
    自考答题技巧:答题时需突出"惰性学习"(无训练过程,仅在预测时计算)这一特征,是自考简答题的高频采分点。
四、应用题

1.以表所示的数据集作为训练数据,请构造一棵决策树用于判断水果的类别并画出来。

编号 颜色 形状 大小 类别
1 一般 苹果
2 弯月 一般 香蕉
3 樱桃
4 绿 椭球 西瓜
5 一般 橘子

参考答案(分步骤解题,符合广东自考应用题评分要求):

步骤1:选择根节点(采用信息增益法,自考核心考点)
  • 计算各特征的信息增益,优先选择信息增益最大的特征作为根节点:
    • 类别总熵:H(类别)=−(15log⁡215+15log⁡215+15log⁡215+15log⁡215+15log⁡215)=log⁡25≈2.32H(类别) = -(\frac{1}{5}\log_2\frac{1}{5} + \frac{1}{5}\log_2\frac{1}{5} + \frac{1}{5}\log_2\frac{1}{5} + \frac{1}{5}\log_2\frac{1}{5} + \frac{1}{5}\log_2\frac{1}{5}) = \log_25 ≈ 2.32H(类别)=−(51log251+51log251+51log251+51log251+51log251)=log25≈2.32;
    • 特征「形状」的信息增益最大(弯月仅对应香蕉,球/椭球可进一步划分),因此根节点为「形状」。

「常识纯度法」的核心规则

选根节点,就看 "特征的一个取值,能不能直接对应唯一类别":

「形状」的取值只有 3 个,是水果的本质特征(苹果、橘子本来就是球形,香蕉就是弯月形),新样本也能按形状分;

「颜色」的取值太多样(比如苹果也有绿的),不是水果分类的稳定特征;

「大小」的问题同理(大苹果、小苹果都是苹果)。

选决策树根节点,本质就是挑一个 最适合当 "第一层分类标准" 的特征 ------ 这个特征要满足两个核心要求:

能最快分出 "纯类别":比如 "形状" 里的 "弯月" 直接对应香蕉,"椭球" 直接对应西瓜,一下子就能确定 2 个类别的结果,不用再往下分;

是稳定的、本质的分类标准:比如 "形状" 是水果的固有特征(苹果天生球形,香蕉天生弯月形),比 "颜色""大小" 更靠谱(比如苹果也有绿色的,大小也有差异)。

步骤2:构建决策树(层级划分)
复制代码
形状(根节点)
├─ 弯月 → 香蕉(叶节点)
├─ 椭球 → 西瓜(叶节点)
└─ 球
   ├─ 大小
   │  ├─ 轻 → 樱桃(叶节点)
   │  └─ 一般
   │     ├─ 颜色:红 → 苹果(叶节点)
   │     └─ 颜色:橘 → 橘子(叶节点)
步骤3:决策树图形绘制(文字描述,符合自考答题可视化要求)
复制代码
          形状
        /   |   \
     弯月  椭球  球
      |     |    |
    香蕉   西瓜  大小
               /   \
              轻   一般
              |     |
            樱桃   颜色
                 /   \
                红    橘
                |     |
              苹果   橘子

自考评分要点:需体现"特征选择(信息增益)→ 层级划分 → 叶节点确定"的完整流程,图形结构清晰即可,无需严格手绘规范,文字分层描述也可得分。

五、案例分析题

1.某公司要开发一个数字识别软件,请根据要求帮助他们完成任务。

(1)设计一个三层BP网络对数字0~9分类。

(2)画出BP学习算法的程序框图。

参考答案(贴合广东自考计算机应用案例分析答题规范):

(1)三层BP网络设计(数字0~9分类)

三层BP网络包含「输入层+隐藏层+输出层」,具体设计如下:

  • 输入层
    • 输入维度:假设数字为28×28像素的灰度图(自考常用案例),则输入层节点数=28×28=784个,每个节点对应一个像素的灰度值(0~255);
    • 激活函数:无(输入层直接传递数据)。
  • 隐藏层
    • 节点数:选取64个(自考常考经验值,可在32~128之间取值);
    • 激活函数:Sigmoid函数(或ReLU函数,自考均认可),用于引入非线性映射,公式:f(x)=11+e−xf(x) = \frac{1}{1+e^{-x}}f(x)=1+e−x1。
  • 输出层
    • 节点数:10个(对应数字0~9,one-hot编码,如数字5对应[0,0,0,0,0,1,0,0,0,0]);
    • 激活函数:Softmax函数,将输出值映射为0~1的概率,公式:Si=ezi∑j=110ezjS_i = \frac{e^{z_i}}{\sum_{j=1}^{10}e^{z_j}}Si=∑j=110ezjezi,概率最大的节点对应识别的数字。
  • 训练优化
    • 损失函数:交叉熵损失(适用于分类问题);
    • 优化算法:梯度下降法,反向传播误差调整各层权重。
(2)BP学习算法程序框图(文字描述+流程结构,符合自考绘图要求)
复制代码
开始
  │
  ▼
初始化BP网络(权重/偏置随机初始化)
  │
  ▼
输入训练样本(数字图像像素+标签)
  │
  ▼
正向传播:
  ├─ 输入层→隐藏层:计算隐藏层输出 H = f(W1×X + b1)
  ├─ 隐藏层→输出层:计算输出层输出 Y = g(W2×H + b2)
  │
  ▼
计算预测误差(损失函数:交叉熵损失)
  │
  ▼
判断误差是否小于阈值/达到迭代次数?
  ├─ 是 → 训练结束,输出模型
  └─ 否 → 反向传播:
       ├─ 计算输出层权重梯度:ΔW2 = 误差×H^T
       ├─ 计算隐藏层权重梯度:ΔW1 = (W2^T×误差×f'(H))×X^T
       ├─ 更新权重和偏置:W1=W1-η×ΔW1,W2=W2-η×ΔW2(η为学习率)
       │
       ▼
       返回"输入训练样本"步骤,继续迭代

自考易错提示:BP算法的核心是"正向传播算输出,反向传播调权重",程序框图需体现"迭代-误差判断-权重更新"的闭环,这是案例分析题的核心采分点。

总结(自考备考关键点)

  1. 选择题需聚焦核心概念的定义与区分,尤其是监督/无监督学习、各类算法的特征;
  2. 名词解释/简答题需紧扣采分点,语言简洁,突出自考高频考点(如KNN的"惰性学习"、DFS的"递归/栈实现");
  3. 应用题/案例分析题需体现完整解题流程,决策树、BP网络是广东自考计算机专业课的高频难点,需掌握特征选择、层级设计的核心方法。
相关推荐
云和数据.ChenGuang15 小时前
人工智能实践之基于CNN的街区餐饮图片识别案例实践
人工智能·深度学习·神经网络·机器学习·cnn
北京耐用通信15 小时前
耐达讯自动化赋能:Canopen转Profibus网关水泵连接新范式
人工智能·科技·物联网·自动化·信息与通信
小途软件15 小时前
ssm327校园二手交易平台的设计与实现+vue
java·人工智能·pytorch·python·深度学习·语言模型
小咖自动剪辑15 小时前
小咖批量剪辑助手:Windows 视频批量自动剪辑与混剪工具
人工智能·音视频·语音识别·实时音视频·视频编解码
京东零售技术15 小时前
ACM Multimedia | 京东零售广告创意:统一的布局生成和评估模型
人工智能
阿东在coding15 小时前
MCP Skill Subagent 实战指南
人工智能
房产中介行业研习社15 小时前
嘉兴国商区2026年1月品质楼盘推荐
大数据·人工智能·房产直播技巧·房产直播培训
凤希AI伴侣15 小时前
从组装工到超级个体:AI伴侣开发中的工具整合与体验优化
人工智能·凤希ai伴侣
倪某某16 小时前
阿里云ECS GPU部署WAN2.2
人工智能·阿里云·云计算