技术栈
cross attention
吃鱼不卡次
12 小时前
人工智能
·
深度学习
·
cross attention
·
rt-detr
·
匈牙利匹配
·
self attention
·
对比去噪训练
RT-DETR解码模块(Decoder)
RT-DETR上篇可以参考:RT-DETR网络结构(Encoder)-CSDN博客前面也提到了RT-DETR由两部分构成,分别是Encoder和Decoder模块,经过这两个模块后直接输出结果,也就是没有所谓的NMS等后处理操作,下面主要来介绍一下Decoder模块,由于使用了denoising training的训练方法,训练阶段和推理阶段略有不同,但是都是差不多的,最后会有对比总结。
清晨的光明
2 年前
人工智能
·
深度学习
·
计算机视觉
·
交叉注意力
·
cross attention
CV领域 交叉注意力(Cross Attention)中QKV的含义理解
(1)K=V:图像的全局特征(2)Q:告诉attention需要关注哪些重要特征(1):Q和K相乘,对应Query和Key进行点积运算,得到的是Query和Key之间的相似性;
我是有底线的