2025年CNN与Transformer融合的创新点思路

CNN+Transformer这类结构其实一直都挺火的,核心在于他们的互补性。因为在一些复杂的AI应用中,单个模型很难同时高效处理多种类型的数据。如果结合CNN在图像处理上的强大能力和Transformer在序列数据处理上的优势,就可以增加模型处理的灵活性,提高计算效率。

这种结构也是非常热门的毕业or小论文选择,刚刚过去的2024年就有相当多顶会顶刊成果,感兴趣的同学们抓紧。目前CNN+Transformer比较常见的创新就是架构设计创新、注意力机制优化、特征融合策略改进、预训练与微调策略创新、特定领域应用...

本文根据这些方向提供15个最新的CNN+Transformer创新点参考,基本都有代码可复现,帮大家节省了查找的时间,有论文需求的同学可无偿获取,希望大家科研顺利哦!

全部论文+开源代码需要的同学看文末

LEFormer: A hybrid CNN-transformer architecture for accurate lake extraction from remote sensing imagery

**方法:**论文提出了一种结合卷积神经网络(CNN)和Transformer的混合架构,用于从遥感图像中准确提取湖泊。SCTNet通过在训练阶段使用transformer语义信息来提高实时语义分割性能,解决了传统双分支方法中计算开销高和推理速度慢的问题,实现了新一代的状态SOTA结果。

创新点:

  • SCTNet 引入了一种创新的单分支架构,能够在不增加推理计算成本的情况下提取高质量的长程语境信息。

  • 提出了 CF-Block 和语义信息对齐模块,帮助 SCTNet 在训练过程中从 transformer 分支捕获丰富的语义信息。

  • 通过将 GFA 中的矩阵乘法替换为逐像素卷积操作,保留了特征图的空间结构,同时降低了推理延迟。

TractGraphFormer: Anatomically Informed Hybrid Graph CNN-Transformer Network for Classification from Diffusion MRI Tractography

**方法:**论文提出了一种名为TractGraphFormer的混合模型,将Graph CNN与Transformer结合,通过整合局部解剖信息和全局特征依赖性提升基于扩散MRI纤维束成像的性别预测性能,通过改进网络结构和实验验证,显著提升了分类性能。

创新点:

  • TractGraphFormer框架结合了Graph CNN和Transformer架构,首次在扩散MRI束流追踪中同时捕获局部解剖关系和全局特征依赖。

  • 提出了一个注意力模块,以解释性别预测任务中的预测性束流。

  • 引入了一个新的组合图,综合考虑了白质(WM)和灰质(GM)信息。

WiTUnet: A U-shaped architecture integrating CNN and Transformer for improved feature alignment and local information fusion

**方法:**论文提出了一个结合卷积神经网络和Transformer的新型网络架构WiTUnet,用于低剂量计算机断层扫描图像的去噪。WiTUnet通过嵌套密集的跳跃路径和窗口化的Transformer结构,改善特征对齐和局部信息融合,显著提升了LDCT图像的去噪效果和图像质量。

创新点:

  • WiTUnet通过引入窗口注意力机制和LiPe模块,实现了在保持低计算开销的同时,显著提升去噪性能。

  • 通过使用局部增强窗口(LeWin)Transformer模块,WiTUnet有效减少了高分辨率特征图中的计算需求,同时在U-net架构中成功应用,提升了图像重建的效果。

  • WiTUnet通过调整特征通道数量(C值),找到了计算效率与去噪效果之间的最佳平衡。

CST-YOLO: A Novel Method for Blood Cell Detection Based on Improved YOLOv7 and CNN-Swin Transformer

**方法:**论文提出了一种名为CST-YOLO的模型,它是基于YOLOv7架构,并通过引入CNN-Swin Transformer模块来增强模型的特征提取能力。此外,还引入了三个其他有用的模块:加权高效层聚合网络(W-ELAN)、多尺度通道分割(MCS)和连接卷积层(CatConv),以提高小目标检测的精度。

创新点:

  • 引入了一种新的小目标检测模型CST-YOLO,通过结合YOLOv7架构和Swin Transformer,首次实现了Transformer与YOLOv7的融合。

  • 引入了加权高效层聚合网络(W-ELAN)、多尺度通道分割(MCS)和拼接卷积层(CatConv)等模块。

关注下方《学姐带你玩AI》🚀🚀🚀

回复"卷结合思路"获取全部方案+开源代码

码字不易,欢迎大家点赞评论收藏

相关推荐
道友老李44 分钟前
【机器学习】Kaggle实战Rossmann商店销售预测(项目背景、数据介绍/加载/合并、特征工程、构建模型、模型预测)
人工智能·机器学习
Seeklike3 小时前
初识NLP
人工智能·自然语言处理
GISer_Jing3 小时前
LLM(大语言模型)支撑下的传统工作流转型发展为AI工作流
人工智能·语言模型·自然语言处理
2401_898200603 小时前
2023 Google开发者大会:你了解机器学习的新动向吗?
人工智能·机器学习
Dong雨5 小时前
快速入门:如何注册并使用GPT
人工智能·chatgpt
从零开始学习人工智能5 小时前
安装指南:LLaMA Factory、AutoGPTQ 和 vllm
人工智能·python·深度学习·算法
霍格沃兹测试开发学社测试人社区5 小时前
三大智能体平台对比分析:FastGPT、Dify、Coze 哪个更适合你?
大数据·软件测试·数据库·人工智能·测试开发
蒙娜丽宁5 小时前
【人工智能】Python中的自动化机器学习(AutoML):如何使用TPOT优化模型选择
人工智能·python·自动化
Cpdr5 小时前
DilateFormer: Multi-Scale Dilated Transformer for Visual Recognition 中的空洞自注意力机制
人工智能·pytorch·深度学习·transformer
yuanlulu5 小时前
llamafactory使用8张昇腾910b算力卡lora微调训练qwen2-72b大模型
lora·llm·transformer·分布式训练·大语言模型·huggingface·多卡训练