AI基础知识(3)--神经网络,支持向量机,贝叶斯分类器

1.什么是误差逆传播算法(error BackPropagation,简称BP)?

是一种神经网络学习算法。BP是一个迭代学习算法 ,在迭代的每一轮使用广义的感知机学习规则对参数进行更新估计。基于梯度下降(gradient descent) 策略,以目标的负方向对参数进行更新。BP的算法工作流程 大致是:先将输入样本输入给输入层神经元,再将误差逆向传播至隐层神经元最后根据隐层神经元的误差来对连接权(connection weight)和阈值(threshold)进行调整,该过程迭代调整,直到训练误差达到一个很小的值。

2.如何解决误差函数中参数寻优陷入局部极小的问题?

(1)以多组不同的值初始化多个神经网络,按标准方法训练之后,取其中误差最小的解作为参数。这相当于从不同的初始点开始搜索,这样就可能陷入不同的局部最小。

(2)使用**"模拟退火"(simulated annealing)技术**,模拟退火每一步都在以一定的概率接受比当前更差的结果,从而有助于"跳出"局部极小。

(3)使用随机梯度下降,与标准梯度下降计算机误差精度不同,随机梯度下在计算梯度时加入了随机因素,即使陷入局部极小点,它计算出的梯度仍可能不为0,这样就有机会跳出局部极小。

3.什么是预训练(pre-training)?

由于多隐层神经网络在多隐层逆传播时,往往会"发散"(diverse)而不能收敛到稳定状态,**所以采用预训练方法,训练时将上一层隐结点的输出作为输入,而本层隐结点的输出作为下一层隐结点的输入。**在预训练结束后,再对整个网络进行微调(fine-tuning)。

4.什么是支持向量机(support vector machine)?

首先解释支持向量(support vector),是指距离超平面,最近的几个点使得下面公式的等号成立,他们被称为"支持向量"。

两个异类支持向量到超平面的距离称为间隔(margin),欲找到具有"最大间隔"(maximum margin)的划分超平面,也就是找到能满足上面约束条件的参数w和b,使得margin最大,这就是支持向量机(SVM)的基本型:对于二分类问题,找到一个超平面,使得margin最大。

相关推荐
思绪无限1 小时前
YOLOv5至YOLOv12升级:木材表面缺陷检测系统的设计与实现(完整代码+界面+数据集项目)
人工智能·深度学习·目标检测·计算机视觉·木材表面缺陷检测
kishu_iOS&AI1 小时前
深度学习 —— 损失函数
人工智能·pytorch·python·深度学习·线性回归
好运的阿财1 小时前
OpenClaw工具拆解之canvas+message
人工智能·python·ai编程·openclaw·openclaw工具
TechubNews1 小时前
新火集团首席经济学家付鹏演讲——2026 年是 Crypto 加入到 FICC 资产配置框架元年
大数据·人工智能
蒸汽求职2 小时前
跨越 CRUD 内卷:半导体产业链与算力基建下的软件工程新生态
人工智能·科技·面试·职场和发展·软件工程·制造
DeepModel2 小时前
通俗易懂讲透 Q-Learning:从零学会强化学习核心算法
人工智能·学习·算法·机器学习
聊点儿技术2 小时前
LLM数据采集如何突破AI反爬?——用IP数据接口实现进阶
人工智能·数据分析·产品运营·ip·电商·ip地址查询·ip数据接口
小兵张健2 小时前
一场大概率没拿到 offer 的面试,让我更坚定去做喜欢的事
人工智能·面试·程序员
2501_940041742 小时前
AI创建小游戏指令词
人工智能·游戏·prompt
AC赳赳老秦2 小时前
OpenClaw二次开发实战:编写专属办公自动化技能,适配个性化需求
linux·javascript·人工智能·python·django·测试用例·openclaw