深度学习·GFSS

GFSS General Few-Shot Segmentation

  • 任务实现方式与zero-shot有所不同
  • 本篇论文只涉及同一个模态 (图像),训练过程中,novel class有几个图像提供,提供k个就称之为k-shot
  • 先从图像中提取class prototype ,然后这个原型向量作为查询,与图像的patch嵌入计算相似度,然后得到最后的掩码矩阵。

RD

  • 先对patch嵌入和原型作逐元素乘法,然后赋予其特定权重。权重就是二者的相似度分数。

  • 从VIT中提取多个patch嵌入,拼接在一起,经过线性层作为key,value。

  • 拼接多个VIT layer的RD和类别原型向量,经过线性层作为query。

局限

依赖ViT单模态能力、计算成本高、对小样本噪声敏感。

相关推荐
懒羊羊吃辣条1 小时前
问题解决方法—更新Nvidia显卡驱动后,WSL系统CUDA失效并且Anaconda环境消失
人工智能·深度学习·transformer
天天代码码天天1 小时前
lw.PPOCRSharp_GPU_Test paddle_inference v3.3
人工智能·深度学习·paddle
茶栀(*´I`*)2 小时前
PyTorch实战:用RNN从零开始实现周杰伦歌词生成
pytorch·rnn·深度学习
HyperAI超神经2 小时前
在线教程丨微软开源3D生成模型TRELLIS.2,3秒生成高分辨率的全纹理资产
人工智能·深度学习·机器学习·3d
IT阳晨。2 小时前
【CNN卷积神经网络(吴恩达)】目标检测学习笔记
深度学习·目标检测·cnn
gsgbgxp2 小时前
安装库是优先用conda还是pip
深度学习·ubuntu·conda·pip
有Li2 小时前
LoViT:用于手术阶段识别的长视频Transformer/文献速递-基于人工智能的医学影像技术
论文阅读·人工智能·深度学习·文献·医学生
查无此人byebye2 小时前
手写Multi-Head Attention多头注意力机制,Pytorch实现与原理详解
人工智能·pytorch·python·深度学习·transformer
Wilber的技术分享2 小时前
【Transformer原理详解2】Decoder结构解析、Decoder-Only结构中的Decoder
人工智能·笔记·深度学习·llm·transformer
赋创小助手2 小时前
Maia 200 技术拆解:微软云端 AI 推理加速器的设计取舍
服务器·人工智能·科技·深度学习·神经网络·microsoft·自然语言处理