How transferable are features in deep neural networks

随着读取的论文量增加,发现研读论文,更重要的是作者的思维方式,以及自己对深度学习网络的理解,作者是怎么理解当前的网络的,他是从哪些角度发现当前的问题的,作者有事怎么逐步分析,进而引出自己的论点,同时,又是怎么设计实验去证明的,这些思路的理解非常重要,反而,论文中设置了什么参数,网络结构设计的几层,没有那么的重要。

如果第一层的特征是通用特征,最后一层的特征是具体特征,那么从通用特征到具体特征,在网络里面一定存在一个过渡,那么可以提出以下几个问题:

1、我们能否量化某一特定层在多大程度上具有普遍性或特殊性;

2、这种转变是突然发生在单个层上,还是分散在多个层上;

3、这种转变发生在网络的哪一层:第一层、中间层还是最后一层;

如果网络中的特征具有通用性,那么可以利用迁移学习;在迁移学习中,可以使用基础数据集训练一个基础网络,然后这个学习到的特征,可以进一步的在目标数据和目标任务上进行迁移。

当目标数据集比基础数据集晓很多的时候,迁移学习可以保证在目标数据集上训练大模型的时候避免过拟合。

常用的迁移学习方法是,训练一个基础网络,然后把它的前n层复制给大网络的前n层,大网络剩下的层,随机初始化,然后进行特定任务的训练。一种方法是,整个网络进行反向传播,包括前n层,这种叫fine-tune,一种是前n层冻结,即训练过程中权重不改变,只更新后面层的权重,这种叫迁移学习,迁移学习还是fine-tune,取决于目标数据集的大小,如果目标数据集很晓,网络参数量很大,fine-tuning 导致过拟合;如果目标数据据很大,或者网络参数量不大,不会出现过拟合的显现,可以使用fine-tune,提高性能。如果数据集非常大,那么没有比较重新开始训练,因为底层的滤波器也可以从目标数据集中学习。

相关推荐
木斯佳3 小时前
HarmonyOS 6实战:AI Action富媒体卡片迭代——实现快照分享
人工智能·harmonyos·媒体
芝士爱知识a3 小时前
2026高含金量写作类国际竞赛汇总与测评
大数据·人工智能·国际竞赛·写作类国际竞赛·写作类比赛推荐·cwa·国际写作比赛推荐
华农DrLai6 小时前
什么是LLM做推荐的三种范式?Prompt-based、Embedding-based、Fine-tuning深度解析
人工智能·深度学习·prompt·transformer·知识图谱·embedding
东北洗浴王子讲AI6 小时前
GPT-5.4辅助算法设计与优化:从理论到实践的系统方法
人工智能·gpt·算法·chatgpt
超低空7 小时前
OpenClaw Windows 安装详细教程
人工智能·程序员·ai编程
北顾笙9807 小时前
LLM学习-day02
学习
恋猫de小郭7 小时前
你的代理归我了:AI 大模型恶意中间人攻击,钱包都被转走了
前端·人工智能·ai编程
yongyoudayee7 小时前
2026 AI CRM选型大比拼:四大架构路线实测对比
人工智能·架构
大连好光景8 小时前
PYG从入门到放弃
笔记·学习
高洁018 小时前
多模态AI模型融合难?核心问题与解决思路
人工智能·深度学习·机器学习·数据挖掘·transformer