深度学习基础之《TensorFlow框架(17)—卷积神经网络》

一、卷积神经网络介绍

1、背景

随着人工智能需求的提升,我们想要做复杂的图像识别,做自然语言处理,做语义分析翻译等等,多层神经网络的简单叠加显然力不从心

2、卷积神经网络与传统多层神经网络对比

(1)传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适

(2)卷积神经网络CNN,在原来多层神经网络的基础上,加入了更加有效的特征学习部分,具体操作就是在原来的全连接层前面加入了卷积层和池化层

(3)卷积神经网络出现,使得神经网络层数得以加深,"深度"学习由此而来

(4)通常所说的深度学习,一般指的是这些CNN等新的结构以及一些新的方法(比如新的激活函数Relu等),解决了传统多层神经网络的一些难以解决的问题

(5)与传统多层神经网络对比

输入层

隐藏层

卷积层

激活层

池化层

全连接层

输出层

3、卷积神经网络发展历史

(1)最初由机器学习中人工神经网络发展而来

(2)1989年LeCun1989

(3)1998年LeNet

(4)2012年AlexNet,改进了很多

(5)加强功能

网络结构加深

加强卷积功能

从分类到检测

新增功能模块

3、卷积网络ImageNet比赛错误率

(1)ImageNet可以说是计算机视觉研究人员进行大规模物体识别和检测时,最先想到的视觉大数据来源,最初由斯坦福大学李飞飞等人在CVPR 2009的一篇论文中推出,并被用于替代PASCAL数据集(后者在数据规模和多样性上都不如ImageNet)和LableMe数据集(在标准化上不如ImageNet)

(2)ImageNet不但是计算机视觉发展的重要推动者,也是这一波深度学习热潮的关键驱动力之一

(3)截止2016年,ImageNet中含有超过1500万由人工注释的图片网址,也就是带标签的图片,标签说明了图片中的内容,超过2.2万个类别

二、卷积神经网络三个结构

1、一张图片经过一系列的卷积、激活、池化,最后有一个FC(全连接)

也是输出top-5 error

2、神经网络(neural networks)的基本组成包括输入层、隐藏层、输出层。而卷积神经网络的特点在于隐藏层分为卷积层和池化层(pooling layer,又叫下采样层)以及激活层

3、每一层的作用

(1)卷积层:通过在原始图像上平移来提取特征

相当于是拿着一个过滤器或者小窗口,通过在原始图片上平移来提取特征

(2)激活层:增加非线性分割能力

(3)池化层:减少学习的参数,降低网络的复杂度(最大池化和平均池化)

4、为了能够达到分类效果,还会有一个全连接层(Full Connection)也就是最后的输出层,进行损失计算并输出分类结果

相关推荐
yLDeveloper3 小时前
从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题
深度学习
Coder_Boy_3 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
2401_836235863 小时前
中安未来SDK15:以AI之眼,解锁企业档案的数字化基因
人工智能·科技·深度学习·ocr·生活
njsgcs3 小时前
llm使用 AgentScope-Tuner 通过 RL 训练 FrozenLake 智能体
人工智能·深度学习
2的n次方_4 小时前
CANN ascend-transformer-boost 架构解析:融合注意力算子管线、长序列分块策略与图引擎协同机制
深度学习·架构·transformer
人工智能培训4 小时前
具身智能视觉、触觉、力觉、听觉等信息如何实时对齐与融合?
人工智能·深度学习·大模型·transformer·企业数字化转型·具身智能
pp起床6 小时前
Gen_AI 补充内容 Logit Lens 和 Patchscopes
人工智能·深度学习·机器学习
阿杰学AI7 小时前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
芷栀夏7 小时前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络
Yeats_Liao10 小时前
评估体系构建:基于自动化指标与人工打分的双重验证
运维·人工智能·深度学习·算法·机器学习·自动化