全卷积和全连接

全连接网络和全卷积网络不一样

以下是对两者的正确解释和代码示例:


1. 全连接网络(Fully Connected Network)

全连接网络使用的是 线性层nn.Linear),也就是我们常说的"全连接层"。它是用于将每一个输入节点与输出节点直接连接的网络结构。

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

class FullyConnectedNetwork(nn.Module):
    def __init__(self, input_size=128, hidden_size=64, output_size=10):
        super(FullyConnectedNetwork, self).__init__()
        self.fc1 = nn.Linear(input_size, hidden_size)  # 全连接层1
        self.fc2 = nn.Linear(hidden_size, hidden_size) # 全连接层2
        self.fc3 = nn.Linear(hidden_size, output_size) # 全连接层3

    def forward(self, x):
        x = F.relu(self.fc1(x))  # 激活函数
        x = F.relu(self.fc2(x))
        x = self.fc3(x)          # 输出层
        return x

# 测试
model = FullyConnectedNetwork()
input_data = torch.randn(32, 128)  # 输入为 (batch_size, 输入特征维度)
output = model(input_data)
print(output.shape)  # 输出形状: (32, 10)

这里的 nn.Linear 代表全连接层,每个神经元都与下一层的每个神经元直接相连。


2. 全卷积网络(Fully Convolutional Network)

全卷积网络则使用的是 卷积层nn.Conv2d),适用于图像或空间数据处理,不使用 nn.Linear。卷积层的好处在于可以捕获空间结构特征,同时能处理任意大小的输入。

以下是一个简单的全卷积网络示例:

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

class FullyConvolutionalNetwork(nn.Module):
    def __init__(self):
        super(FullyConvolutionalNetwork, self).__init__()
        self.conv1 = nn.Conv2d(in_channels=3, out_channels=16, kernel_size=3, padding=1)  # 卷积层1
        self.conv2 = nn.Conv2d(in_channels=16, out_channels=32, kernel_size=3, padding=1) # 卷积层2
        self.conv3 = nn.Conv2d(in_channels=32, out_channels=10, kernel_size=3, padding=1) # 卷积层3

    def forward(self, x):
        x = F.relu(self.conv1(x))  # 激活函数
        x = F.relu(self.conv2(x))
        x = self.conv3(x)          # 输出层
        return x

# 测试
model = FullyConvolutionalNetwork()
input_data = torch.randn(32, 3, 64, 64)  # 输入为 (batch_size, 通道数, 高, 宽)
output = model(input_data)
print(output.shape)  # 输出形状: (32, 10, 64, 64)

在这里,nn.Conv2d 代表卷积层,它通过卷积操作提取空间特征,适合处理图像类的输入数据。


总结

  • 全连接网络 :使用 nn.Linear(线性层),适合用于固定大小的输入,通常用于特征向量或结构化数据。
  • 全卷积网络 :使用 nn.Conv2d(卷积层),适合处理图像和空间数据,可用于任意大小的输入。
相关推荐
科研前沿7 分钟前
什么是时空融合技术?
大数据·人工智能·数码相机·算法·重构·空间计算
小何code7 分钟前
人工智能【第8篇】监督学习实战:线性回归与逻辑回归算法详解(万字长文+完整代码实现)
人工智能·python·学习·机器学习·逻辑回归·线性回归
AI科技星11 分钟前
全域数学本源公理:0、1、∞ 三者核心关系 (典籍定稿版)
人工智能·算法·数学建模·数据挖掘·量子计算
与遨游于天地13 分钟前
AI的缺点即AI具有知识惯性
人工智能
Zik----13 分钟前
【无标题】
人工智能
DanCheOo15 分钟前
Harness Engineering:从“AI 辅助“到“驾驭 AI“的工程效能革命
人工智能·ai编程
AI科技星17 分钟前
全域数学·第卷:场计算机卷(场空间计算机)【乖乖数学】
java·开发语言·人工智能·算法·机器学习·数学建模·数据挖掘
Deepoch18 分钟前
数学模型驱动:Deepoc 低幻觉数学大模型助力发动机全周期智能优化
人工智能·算法·机器学习·deepoc·数学大模型·低幻觉
乱世刀疤20 分钟前
cc-witch-web,已开源!实现OpenClaw、Claude Code等Agent的大模型便捷快速切换
人工智能·开源
minhuan24 分钟前
构建高可用大模型应用架构:大模型服务进程保活 + 全自动故障自愈实践.163
人工智能·大模型应用·大模型服务进程保活·全自动故障自愈·大模型运维监控