CNN全连接层

引言

前序学习进程中,已经梳理了卷积计算池化计算的基本知识。

实际上这两部都是使用卷积核对原始矩阵进行计算或,获得的新的、缩小的矩阵,如何把计算结果一步一步送到最后的输出端,也就是把它们传送、或者说连接起来,这就是全连接层的功能。

全连接层如何计算

全连接层面对的是矩阵数组,如果卷积层或者池化层计算的每一个结果,都是下一层的输入,那第一步就是把这些计算结果"展平",变成一维数组,比如一列,这就是全连接层干的事情。

全连接层展平使用了激活函数,常见的激活函数将卷积层和池化层的数据带入函数运算后,将输出结果直接传递给下一层。

实际上全连接层就是激活函数发挥功能的层,通过激活函数可以引入非线性或者仅保留线性。

代码示例

这里给出一个代码示例,代码使用豆包AI自动生成:

python 复制代码
import numpy as np

# 模拟CNN池化层输出展平后的特征(批量大小=2,单样本特征数=1568)
X = np.random.randn(2, 1568)  # 输入:[2, 1568]

# 定义全连接层参数(对应fc1: 1568→128)
# 生成1568行,128列正态分布随机数
W = np.random.randn(1568, 128)  # 权重:[1568, 128]
# 生成128列正态分布随机数
b = np.random.randn(128)        # 偏置:[128]

# 线性变换计算
output = np.dot(X, W) + b  # 矩阵乘法 + 偏置:[2, 128]

# ReLU激活函数
output_relu = np.maximum(output, 0)  # 负数置0

print("全连接层线性变换输出维度:", output.shape)
print("ReLU激活后输出维度:", output_relu.shape)
print("激活后前5个值:", output_relu[0, :5])

首先会看到生成了一些计算参数:

X:2行1568列正态分布随机数;

W:1568行128列正态分布随机数

b:128列正态分布随机数

然后调用np.dot()函数执行矩阵乘法,获得2行128列数据组成的新矩阵,这个新矩阵的每一列都加上了一个偏置量b,b本身只有128个数,但计算的时候会自动广播,复制一行出来后叠加到np.dot(X,W)上。

然后就是全连接层发生作用的时刻,激活函数np.maximum(output,0)函数只保留非负数,负数强制置0,经过激活函数作用后获得的输出是2行128列。这个结构是预期的,和输入X的结果2行1568列完全不一样。

全连接层的作用,就是把卷积层和池化层的输出再经过激活函数的运算,不仅改变了运算值,还改变了数据结构,使数据按照预设的方式一层一层传递到最后。

总结

学习了全连接层的基础知识。

相关推荐
哥布林学者3 小时前
吴恩达深度学习课程五:自然语言处理 第二周:词嵌入(五)GloVe 算法
深度学习·ai
kuiini4 小时前
模型转换、加速与推理优化【Plan 8】
深度学习
jaray4 小时前
PyCharm 2024.3.2 Professional 如何更换 PyPI 镜像源
ide·python·pycharm·pypi 镜像源
Psycho_MrZhang4 小时前
Neo4j Python SDK手册
开发语言·python·neo4j
Quintus五等升4 小时前
深度学习④|分类任务—VGG13
人工智能·经验分享·深度学习·神经网络·学习·机器学习·分类
2501_936146044 小时前
小型机械零件识别与分类--基于YOLO12-A2C2f-DFFN-DYT模型的创新实现
人工智能·分类·数据挖掘
web3.08889994 小时前
1688图片搜索API,相似商品精准推荐
开发语言·python
少云清4 小时前
【性能测试】15_JMeter _JMeter插件安装使用
开发语言·python·jmeter
天天讯通5 小时前
金融邀约实时质检:呼叫监控赋能客服主管
人工智能·金融
光羽隹衡5 小时前
机器学习——TF-IDF实战(红楼梦数据处理)
python·tf-idf