DDK:Distilling Domain Knowledge for Efficient Large Language Models

速览方法论

不太了解知识蒸馏的可以看这篇文章【KD开山之作

本文的动机是"降低学生模型在各领域和老师模型的差异"。

在一些性能差异比较大的领域,ddk方法可以降低student模型的困惑度(PPL, Perplexity),提高学生模型在该领域的性能。

该篇文章的优势在于,提高了student模型的泛用性,相较于当下的方法,student性能更加均衡。

Contributions

1)To the best of our knowledge, we are the first to study the influence of domain-specific data mixtures for distilling LLMs, and efficiently transfer the domain knowledge of the teacher network upon the domain weights.

首个研究特定领域知识混合对大模型知识蒸馏的影响 ,并基于领域权重对领域知识迁移

2)DDKproposes a factor smooth updating strategy to strategically enhance the appropriate focus of the distillation process on targeted domains, which effectively stabilizes the domain knowledge guided sampling process for smoother distillation.

领域知识权重是基于它提出的discrepancy factor (领域差异因子)。文章提出了一种平滑更新该因子的策略。

3)Extensive experiments on multiple benchmark datasets demonstrate the effectiveness and generalization ability of our proposed DDK.

在多个基准数据集上进行广泛实验验证方法的有效性。

Method

领域差异因子

简单说明一下,M 是模型,CE是交叉熵,Y是label,下标s,t表示student,teacher。

是困惑度得分,将交叉熵得到的熵值通过exp放大,再通过Softmax获得在各领域上的分布。

这个r越大则差异越大。

平滑更新策略

第一项是因子的迭代公式,第二项是因子的基准线。

第二项用作者的话说就是 "为了防止出现过小的值,这样就能保证在不同领域进行数据采样时有一个基准概率,避免某些领域因为领域差异因子过小而几乎不被采样到数据的情况。"

谁没有斗公式的时候呢,哈哈

损失函数

对各领域的求和

第一项是输出的交叉熵,第二项是隐藏状态的KL散度(相对熵)

增加第二项的目的是近似学生模型和教师模型的分布

方法挺简单,但是人家实验用了16张A100 :)

这篇论文是alibaba发表的。一开始我看到使用的教师模型是7B左右的参数是有点疑惑的,但仔细想想其实这个研究方向就是大模型的轻量化,而从7B继续轻量化到1.5B并保持不错的效果,也就意味着大模型个人化的可能。

Appendix

相关推荐
珂朵莉MM15 小时前
第七届全球校园人工智能算法精英大赛-算法巅峰赛产业命题赛第一赛季优化题--无人机配送
人工智能·算法·无人机
有为少年15 小时前
带噪学习 | Ambient Diffusion (NeurIPS 2023)下篇
人工智能·深度学习·神经网络·学习·机器学习·计算机视觉
upper202015 小时前
数据挖掘12
人工智能·数据挖掘
yohalaser15 小时前
追光者的“速度游戏“:光伏测试设备的技术迭代之路
人工智能·功能测试·可用性测试
翼龙云_cloud15 小时前
阿里云云渠道商:如何选择阿里云 GPU 配置方案?
服务器·人工智能·阿里云·云计算
1+2单片机电子设计15 小时前
基于 STM32 的人脸识别系统
网络·人工智能
2401_8414956415 小时前
【自然语言处理】深度拆解自然语言处理(NLP)的知识体系:从理论根基到工程落地的全维度探索
人工智能·自然语言处理·语言学基础·数学与统计学·计算机科学与人工智能·领域特定知识·工程实践知识
知了一笑15 小时前
一文读懂RAG架构如何助力AI
人工智能·rag架构
娱乐我有15 小时前
北京深梵科技公益捐赠二十万 赋能流浪动物温暖过冬
人工智能·科技·json
JoannaJuanCV15 小时前
自动驾驶—CARLA仿真(21)manual_control_carsim demo
人工智能·机器学习·自动驾驶