AI入门笔记(四)

深度学习是人工智能的一种实现方法。本文我将学习到的关于深度学习的代表卷积神经网络的数学结构分享给大家。

深度学习是重叠了很多层的隐藏层(中间层)的神经网络。我们以一个例题为例。

建立一个卷积神经网络,用来识别通过 6×6 像素的图像读取的手写数字 1、2、3。图像的像素为单色二值。

上图中的圈表示神经单元,隐藏层由多个具有结构的层组成。具体来说,隐藏层是多个由卷积层和池化层构成的层组成的,这就是简单原始的卷积神经网络。

那么仔细看上图,我们其实可以从中看出卷积神经网络的数学结构。当输入层接收到数据后,经过卷积到隐藏层中的卷积层,卷积层简化后到池化层,最终到输入层进行输出。那么到底是怎样进行卷积和简化的呢?接下来我们就来讲解一下。

其实原理十分简单。对于隐藏层的神经元会用3×3(通常是5×5)的方阵去扫描输入层的数据,主动去探索其需要的偏好,再利用相似整合为一个神经单元的信号和,就得到了卷积层,卷积层再通过这个方法得到池化层,最终通过相似度得出最后的结果。实际上,在隐藏层中,有很多层,不停的卷积简化,由一个很大的输入层最后得到一个值,而通过层层卷积,这就是"深"就是深度学习,而这个结构组成的就是卷积神经网络。

对比之前我们在(一)(二)(三)中提到的简单神经,卷积神经网络有如下优点:

  • 对于复杂的模式识别问题,也可以用简洁的网络来处理。
  • 整体而言,因为神经单元的数量少了,所以计算比较轻松。

我们通过例题再仔细来看一下。

其偏好为S

通过扫描我们可以得到如下结果

我们将结果进行汇总如下,我们将偏好S称为过滤器,而由过滤器卷积得到的下图结果成为特征映射。

相关推荐
mwq30123几秒前
anthropic-academy:工具使用(一)
人工智能
mwq301232 分钟前
Claude 完整代码教程(转载)
人工智能
DisonTangor4 分钟前
【阿里拥抱开源】阿里inclusionAI开源多模态Ming-flash-omni 2.0
人工智能·开源·aigc
MaoziShan7 分钟前
CMU Subword Modeling | 01 Things Smaller than Words
人工智能·机器学习·自然语言处理
文艺倾年9 分钟前
【免训练&测试时扩展】Code Agent可控进化
人工智能·软件工程·强化学习·vibecoding
宇擎智脑科技10 分钟前
SurrealDB:面向AI原生应用的新一代多模型数据库深度解析
数据库·人工智能·ai-native
一品威客爱开发11 分钟前
网游 APP 开发:聚焦交互体验与多端协同
人工智能
前沿AI11 分钟前
中关村科金 × 中国电信 以「文旅大模型 + 智能客服」点亮自贡灯会智慧服务新标杆
人工智能
木斯佳11 分钟前
HarmonyOS实战(解决方案篇)—企业AI资产利旧:如何将已有智能体快速接入鸿蒙生态
人工智能·华为·harmonyos
A小码哥16 分钟前
开发利器 openCode + Oh My OpenCode 四大核心智能体:Sisyphus、Prometheus、Atlas 与 Hephaestus
人工智能