基于Grad-CAM(Gradient-weighted Class Activation Mapping)的可解释性分析

主要思想:在看某个类别c预测时,最后一层卷积特征图里,哪些空间位置对该类别的得分贡献最大。

为什么选用最后一层卷积特征图:1)语义最强 ,厚层聚合了大量前层证据,学到的往往是高级形态(核形、颗粒、核染色、Auer小体等),更贴近临床语言,早层只会告诉你"这里有条纹/对比度高";2)保留空间分辨率 ,最后一层卷积"是最靠近分类器且仍有空间网格 的位置,用它做热力图,既类相关又能定位到细胞/核区域;3)感受野刚刚好 ,随着层级的加深,感受野逐渐增大,最后几层的感受野已经足够覆盖整个细胞或其关键结构,而不是零碎纹理;4)数值更稳定 ,早层梯度非常嘈杂、容易受颜色/纹理干扰;最后一层卷积的梯度更类相关,热力图稳定性好。这是语义性、空间性和稳定性的折中点。

回答两个问题:1)这些探测器里,谁对这次"某类别 c"的判断更关键 ?2)在图上的哪些位置真正"驱动"了这次 c 的判定?

实现过程过程:

最后一层卷积的第k个通道特征图Ak,H*W维(这里要计算所有通道);

类别c的logit:yc(这个是什么:是模型对类别c的原始打分,还没有经过softmax和sigmoid的数值,一个样本对每个类别都会计算出一个值);

计算通道权重(通过梯度给每个通道分配话语权):

类别c的Grad-CAM热力图(未上采样前):

把Lc双线性差值回到输入大小,叠加到原图即可可视化(这一步是如何操作的)

适用于哪些情况:Grad-CAM 主要适用于有卷积层、能保留空间结构的深度学习模型(典型是 CNN 及其变体)。在 ViT 等 Transformer 中也能通过改造应用;而对没有空间维的模型(RNN、MLP),则不合适。

相关推荐
Mxsoft6197 分钟前
某次联邦学习训练模型不准,发现协议转换字段映射错,手动校验救场!
人工智能
shayudiandian38 分钟前
用PyTorch训练一个猫狗分类器
人工智能·pytorch·深度学习
这儿有一堆花42 分钟前
把 AI 装进终端:Gemini CLI 上手体验与核心功能解析
人工智能·ai·ai编程
子午1 小时前
【蘑菇识别系统】Python+TensorFlow+Vue3+Django+人工智能+深度学习+卷积网络+resnet50算法
人工智能·python·深度学习
模型启动机1 小时前
Langchain正式宣布,Deep Agents全面支持Skills,通用AI代理的新范式?
人工智能·ai·langchain·大模型·agentic ai
Python私教1 小时前
别让 API Key 裸奔:基于 TRAE SOLO 的大模型安全配置最佳实践
人工智能
Python私教1 小时前
Vibe Coding 体验报告:我让 TRAE SOLO 替我重构了 2000 行屎山代码,结果...
人工智能
prog_61031 小时前
【笔记】和各大AI语言模型写项目——手搓SDN后得到的经验
人工智能·笔记·语言模型
zhangfeng11331 小时前
深入剖析Kimi K2 Thinking与其他大规模语言模型(Large Language Models, LLMs)之间的差异
人工智能·语言模型·自然语言处理
paopao_wu2 小时前
人脸检测与识别-InsightFace:特征向量提取与识别
人工智能·目标检测