从全连接到卷积

一、全连接到卷积

1、卷积具有两个原则:

平移不变性:无论作用在哪个部分,它都要有相同的作用,而不会随着位置的改变而改变

局部性:卷积核作用处,作用域应该是核作用点的周围一小部分而不作用于更大的部分

2、卷积是一个特殊的全连接层。

(1)对输入输出:长度变化->高宽变化;

(2)对权重:之前输入输出都是一维,权重就是二维。现在输入输出都是二维,权重就是四维了;全连接层的权重矩阵的维度可以表示为 (n,m),其中 n 是输入神经元的数量,m 是输出神经元的数量。如果一个全连接层有 4 个输入维度和 3 个输出维度,那么它的权重矩阵的维度就是 4×3

(3)与全连接二维权重类似,只是从二维变成了四维

(4)把下标变一下,使得可以引出卷积

3、对应两个原则,处理上面的等式

(1)平移不变形

i,j变的时候,不能让w跟着变,即在别的维度都是一样的权重,否则失去平移不变性

平移不变性让我们对权重有一个限制,把ij的维度抹去,从四维变为二维

(2)局部性

4、权重是识别图片的识别器,

5、总结

(1)对全连接层使用平移不变性和局部性得到卷积层

(2)"卷积核在数值不变的情况下遍历整张图"、"卷积核不应该太大"

(3)这是卷积操作子的情况,后面会写卷积层的操作

二、卷积层

1、二维卷积层

(1)对输出Y:Kernel为2×2的矩阵,那么德尔塔就应该等于1

(2)卷积核与输入的位置无关,这叫做平移不变性;输出的一个窗口所用的只是一个2×2的矩阵,这说明了局部性

(3)w =其实就是kernel

(4)卷积核矩阵的大小,控制的是局部性;卷积为了保持局部性,不会随着输入维度的变大而使核变复杂

2、交叉相关与卷积

只是学出来的东西是反的,其他没有区别

3、一维与三维:一维交叉相关主要处理文本语言时序序列,而三维交叉相关会处理视频医学图像气象地图等。我们经常使用的二维交叉相关通常用于处理图像。

4、总结

三、代码

1、互相关运算

复制代码
import torch
from torch import nn
from d2l import torch as d2l

def corr2d(X, K):  #@save
    """计算二维互相关运算"""
    #卷积矩阵的长宽
    h, w = K.shape
    #输出矩阵
    Y = torch.zeros((X.shape[0] - h + 1, X.shape[1] - w + 1))
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            #卷积核大小的X与卷积核相乘求和得到输出
            Y[i, j] = (X[i:i + h, j:j + w] * K).sum()
    return Y

2、卷积层

复制代码
#跟上述的功能相同,只是创建的继承nn.Module的卷积类
class Conv2D(nn.Module):
    def __init__(self, kernel_size):
        super().__init__()
        #生成kernel大小的权重矩阵
        self.weight = nn.Parameter(torch.rand(kernel_size))
        #偏置全部设为1
        self.bias = nn.Parameter(torch.zeros(1))

    def forward(self, x):
        return corr2d(x, self.weight) + self.bias

3、卷积核

复制代码
# 构造一个二维卷积层,它具有1个输出通道和形状为(1,2)的卷积核
conv2d = nn.Conv2d(1,1, kernel_size=(1, 2), bias=False)

# 这个二维卷积层使用四维输入和输出格式(批量大小、通道、高度、宽度),
# 其中批量大小和通道数都为1
X = X.reshape((1, 1, 6, 8))
Y = Y.reshape((1, 1, 6, 7))
lr = 3e-2  # 学习率

for i in range(10):
    #使用卷积层对X进行前向传播,得到预测值Y_hat
    Y_hat = conv2d(X)
    #计算预测值和真实值之间的平方误差损失
    l = (Y_hat - Y) ** 2
    ## 将卷积层的梯度清零
    conv2d.zero_grad()
    #计算损失对卷积核的梯度
    l.sum().backward()
    # 迭代卷积核,使用梯度下降法
    conv2d.weight.data[:] -= lr * conv2d.weight.grad
    if (i + 1) % 2 == 0:
        print(f'epoch {i+1}, loss {l.sum():.3f}')
相关推荐
100分简历几秒前
无图标简洁大方的简历模板下载
人工智能·面试·职场和发展·pdf·编辑器
海绵宝宝_1 分钟前
Chrome强开Gemini助手教程
前端·人工智能·chrome
八月瓜科技3 分钟前
AI侵权频发:国内判例定边界,国际判决敲警钟
大数据·人工智能·科技·深度学习·机器人
无垠的广袤3 分钟前
【VisionFive 2 Lite 单板计算机】边缘AI视觉应用部署:人脸检测
linux·人工智能·python·opencv·开发板
A01234123454 分钟前
当AI成为“仿生绿植”:从颜廷利《升命学说》看技术时代的灵魂缺失
人工智能·心理学三大泰斗谁最厉害·中国最出名的心理学专家·心理学的三大巨头·中国心理学第一名是谁·中国最顶尖的心理学家·世界公认顶尖心理学家
新缸中之脑5 分钟前
用Ollama Launch连接AI编码代理
人工智能
一招定胜负6 分钟前
卷积神经网络提取人脸五个特征点
人工智能·cnn·kotlin
一招定胜负7 分钟前
回顾:cbow连续词袋与词嵌入
人工智能·自然语言处理·nlp
七夜zippoe9 分钟前
大模型低成本高性能演进 从GPT到DeepSeek的技术实战手记
人工智能·gpt·算法·架构·deepseek
Allen_LVyingbo11 分钟前
面向70B多模态医疗大模型预训练的工程落地(医疗大模型预训练扩展包)
人工智能·python·分类·知识图谱·健康医疗·迁移学习