ultalytics代码中模型接收多层输入的处理

yaml文件中,输入来自上一层和第六层的输入:

是将这两个输入打包成列表

详解这段代码:

python 复制代码
 x = y[m.f] if isinstance(m.f, int) else [x if j == -1 else y[j] for j in m.f]  # from earlier layers

输入来源 m.f

  • m.f:表示当前层的输入来源,可以是一个整数或一个列表。这个属性通常在模型的构建阶段定义,指明了当前层的输入是来自哪个层。

  • 也就是第一列参数:
    检查 m.f 的类型

  • isinstance(m.f, int) :检查 m.f 是否是一个整数。如果是整数,说明当前层的输入仅来自于一个特定的前置层。
    y 列表中获取输入

  • y[m.f]

    • 如果 m.f 是一个整数,直接使用 y[m.f] 获取对应层的输出。
    • y 列表在模型的前向传播过程中存储了各个层的输出。因此,通过 y[m.f] 可以获得之前某一层的输出,作为当前层的输入。
      从多个层中获取输入
  • else [x if j == -1 else y[j] for j in m.f]

    • 如果 m.f 是一个列表,说明当前层需要从多个前置层获取输入。
    • 在这个列表推导式中,x 的值取决于 m.f 中每个元素 j 的值。x 将通过列表推导式生成一个列表。

这里的y[]列表 是根据 parse_model函数中创建 的save列表对save[]列表中记录的层数输出进行保存;save只保存明确指定层的层数,-1这种上一层不保存。


假设 f = [-1, 6]。列表推导式的工作方式如下:

  1. 初始状态

    • 假设当前层的输入(在模型的前向传播中)是一个张量,比如 input_tensor
  2. 遍历 m.f

    • 对于 j = -1
      • 根据条件 if j == -1,将 x 赋值为当前层的输入,即 x = input_tensor
    • 对于 j = 6
      • 根据条件 else y[j],将 y[6] 的输出添加到 x 中。

最终,x = [ input_tensor, y[6] ]


所以这里,用-1,6 两层concat:

也就是对列表中的两个张量在第1维度进行拼接:

python 复制代码
import torch
import torch.nn as nn

# 假设我们有两个张量
input_tensor = torch.randn(2, 3, 4, 4)  # 形状为 (N=2, C1=3, H=4, W=4)
y_6 = torch.randn(2, 5, 4, 4)  # 形状为 (N=2, C2=5, H=4, W=4)

# 将张量放入列表
tensors = [input_tensor, y_6]

# 使用 torch.cat 进行连接
result = torch.cat(tensors, dim=1)  # 在通道维度上连接

# 显示结果的形状
print(result.shape)  # 输出: torch.Size([2, 8, 4, 4]),其中 8 = 3 + 5
相关推荐
三维重建-光栅投影1 小时前
VS中将cuda项目编译为DLL并调用
算法
蹦蹦跳跳真可爱5891 小时前
Python----循环神经网络(Transformer ----注意力机制)
人工智能·深度学习·nlp·transformer·循环神经网络
课堂剪切板3 小时前
ch03 部分题目思路
算法
山登绝顶我为峰 3(^v^)34 小时前
如何录制带备注的演示文稿(LaTex Beamer + Pympress)
c++·线性代数·算法·计算机·密码学·音视频·latex
Two_brushes.5 小时前
【算法】宽度优先遍历BFS
算法·leetcode·哈希算法·宽度优先
千宇宙航6 小时前
闲庭信步使用SV搭建图像测试平台:第三十一课——基于神经网络的手写数字识别
图像处理·人工智能·深度学习·神经网络·计算机视觉·fpga开发
IT古董6 小时前
【第二章:机器学习与神经网络概述】04.回归算法理论与实践 -(4)模型评价与调整(Model Evaluation & Tuning)
神经网络·机器学习·回归
onceco7 小时前
领域LLM九讲——第5讲 为什么选择OpenManus而不是QwenAgent(附LLM免费api邀请码)
人工智能·python·深度学习·语言模型·自然语言处理·自动化
森焱森7 小时前
水下航行器外形分类详解
c语言·单片机·算法·架构·无人机
天水幼麟7 小时前
动手学深度学习-学习笔记(总)
笔记·深度学习·学习