神经网络的基本骨架——nn.Module(torch.nn里的Containers模块里的Module类)

**前置知识:

nn:neural network神经网络

1、torch.nn:与神经网络有关的库

Containers:torch.nn中的一个模块

Module:所有神经网络模型的基础类(Base class for all neural network modules)

注意:任何自定义的模型都应该继承自 nn.Module,并实现 __init__forward 方法,以定义模型的结构和前向传播的逻辑

2、x=torch.tensor(1.0):将输入数据转为张量,因为模型期望收到张量(tensor)类型的输入

因为模型的操作(如加法、矩阵乘法等)都是在张量上进行的

张量可以简单理解为一种多维数组,用于表示数据

  • 标量(0维张量) :一个单一的数字,比如 5

  • 向量(1维张量) :一组数字,比如 [1, 2, 3],可以看作是一条线上的点

  • 矩阵(2维张量):一个数字的表格,比如[ [1, 2], [3, 4] ]

  • 更高维的张量(3维及以上) :想象一下一个立方体,里面有许多数字,比如颜色的RGB值。更高维的张量可以表示更复杂的数据结构,比如视频帧、三维图像等

3、forward方法:如何由input计算得到output

forward和__call__的联系:

forward 是你定义的前向传播逻辑,用于计算输出的方法

__call__ 是一个特殊方法,用于使得模型实例可以像函数一样被调用,并负责调用 forward 以及处理其他一些功能

所以能让实例像函数一样被调用的实际上是__call__而不是forward

**代码:

自定义新模型:

继承nn.Module基类------>重写__init__方法和forward方法

python 复制代码
import torch
from torch import nn

class Xigua(nn.Module):

    def __init__(self):
        super().__init__()

    def forward(self,input):
        output=input+1
        return output

xigua1=Xigua() #先实例化新模型类,才能把它作为工具(一般有__call__方法的都这样做)
x=torch.tensor(1.0)
output=xigua1(x)
print(output)
相关推荐
该醒醒了~37 分钟前
深度学习异常检测Anomalib算法训练+推理+转化+onnx
人工智能·python·深度学习
日光明媚42 分钟前
FFmpeg 视频生成推理 Pipeline:Python 版常用函数封装(可直接集成)
python·深度学习·ai作画·aigc·音视频
xwz小王子1 小时前
RoboLab:机器人通用策略泛化的仿真评估
人工智能·深度学习·机器人
小江的记录本1 小时前
【RAG】RAG检索增强生成(核心架构、全流程、RAG优化方案、常见问题与解决方案)
java·前端·人工智能·后端·python·机器学习·架构
sp_fyf_20241 小时前
【大语言模型】 揭开指令混合用于大语言模型微调的神秘面纱
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
阿杰学AI1 小时前
AI核心知识121—大语言模型之 基于人类反馈的强化学习 (简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·强化学习·奖励模型·rm
dfsj660112 小时前
第三章:神经网络的史前史
人工智能·深度学习·神经网络
AI周红伟2 小时前
《智能体应用交付实操:OpenClaw+Skills+RAG+Agent智能体应用案例实操和智能体交付的方案设计》
大数据·数据库·人工智能·科技·gpt·深度学习·openclaw
日光明媚2 小时前
SoulX-FlashTalk 技术报告解读:从“严格因果”到“双向流式蒸馏”,实时数字人为什么能做到 0.87s 延迟、32FPS 和长时稳定?
人工智能·python·深度学习·ai作画·aigc·音视频
格林威2 小时前
AI视觉检测资源:ONNX → TensorRT 转换 checklist
人工智能·深度学习·数码相机·计算机视觉·视觉检测·工业相机·ai智能