技术栈

cross attention

吃鱼不卡次
12 小时前
人工智能·深度学习·cross attention·rt-detr·匈牙利匹配·self attention·对比去噪训练
RT-DETR解码模块(Decoder)RT-DETR上篇可以参考:RT-DETR网络结构(Encoder)-CSDN博客前面也提到了RT-DETR由两部分构成,分别是Encoder和Decoder模块,经过这两个模块后直接输出结果,也就是没有所谓的NMS等后处理操作,下面主要来介绍一下Decoder模块,由于使用了denoising training的训练方法,训练阶段和推理阶段略有不同,但是都是差不多的,最后会有对比总结。
清晨的光明
2 年前
人工智能·深度学习·计算机视觉·交叉注意力·cross attention
CV领域 交叉注意力(Cross Attention)中QKV的含义理解(1)K=V:图像的全局特征(2)Q:告诉attention需要关注哪些重要特征(1):Q和K相乘,对应Query和Key进行点积运算,得到的是Query和Key之间的相似性;
我是有底线的