技术栈

self attention

吃鱼不卡次
12 小时前
人工智能·深度学习·cross attention·rt-detr·匈牙利匹配·self attention·对比去噪训练
RT-DETR解码模块(Decoder)RT-DETR上篇可以参考:RT-DETR网络结构(Encoder)-CSDN博客前面也提到了RT-DETR由两部分构成,分别是Encoder和Decoder模块,经过这两个模块后直接输出结果,也就是没有所谓的NMS等后处理操作,下面主要来介绍一下Decoder模块,由于使用了denoising training的训练方法,训练阶段和推理阶段略有不同,但是都是差不多的,最后会有对比总结。
我是有底线的