机器学习大模型问题记录

基础知识

1、多标签和多分类的区别

多分类

x有且仅有一个类别,输出y为属于类别的概率,最终类别为 y i y_i yi最大的类别,特点为 y i y_i yi互斥,且包含所有情况。

输出通常使用softmax,使 y i y_i yi具有上述特点。

多标签

输出 y i y_i yi各个类别之间有重合部分,且x可能同时属于多个类别, 1 > = y i > = 0 1>=y_i>=0 1>=yi>=0,此时最后一层通常使用sigmoid函数。

2、在多分类中什么情况需要负采样,以及负采样方法

存在的问题:

  1. 类别过多,比如推荐系统中,预测类别y_i会很多,会导致上述运算量很大

基础知识网站

https://github.com/wdndev/llm_interview_note/blob/main/01.大语言模型基础/1.激活函数/1.激活函数.md

温度系数

https://zhuanlan.zhihu.com/p/666670367

temperature参数控制生成语言模型中生成文本的随机性和创造性,调整模型的softmax输出层中预测词的概率;

temperature越大,则预测词的概率的方差减大,即很多词被选择的可能性增大,利于文本多样化

举例:Prompt: "The quick brown fox"

Temperature = 0.1:

"The quick brown fox jumped over the lazy dog. The quick brown fox jumped over the lazy dog. The quick brown fox jumped over the lazy dog.

Temperature = 0.5:

"The quick brown fox jumped over the lazy dog. The lazy cat was not impressed. The quick brown fox ran away."

Temperature = 1.0:

"The quick brown fox jumped over the lazy dog. Suddenly, a flock of birds flew overhead, causing the fox to stop in its tracks. It looked up at the sky, wondering where they were going."

温度就是调整大模型生成随机性的一个参数,温度越高,大模型在相同输入下,多次推理的结果相差越大

https://zhuanlan.zhihu.com/p/82829880

k越大,LLM输出多样性越大

复读机问题

https://blog.csdn.net/weixin_46566149/article/details/134987196

复读机问题分析及解决方案

在DPO时遇到复读机问题,增加SFT loss或者lora,基本思想是和ref model更像。
https://www.linsight.cn/93328a2a.html

在DPO阶段,会用在上一轮post-training得到的最佳模型收集偏好数据对,这样能使得偏好数据的分布和强化学习时的policy model更一致。

除了DPO以外,Meta也尝试了一些on-policy的方案,如PPO。但是相对来说,DPO消耗更少的计算资源,并且效果也更好,特别是在instruction following的能力上,所以还是选择在post-training使用DPO。

DPO训练中,使用lr=1e-5,beta=0.1。

此外,训练中还做了一些不同于标准做法的改动:

1、Masking out formatting tokens in DPO loss

把特殊token比如header和termination token屏蔽,不用于计算训练loss。因为使用这些token计算loss会使得模型在生成时,出现如复读机或者在不合适的地方截断的情况。这可能就是因为chosen repsponse和rejected response同时包含的这些特殊token,让模型在训练时要同时增大和较小它们的likelihood,导致冲突。

2、Regularization with NLL loss

除了DPO的常规loss,Meta额外加入了NLL损失项,这和《Iterative reasoning preference optimization》的做法类似。这也有点像PPO里加入next token prediction loss,能使训练更加稳定,并能保持SFT学到的生成格式,并保持chosen response的log probability不下降(《Smaug: Fixing failure modes of preference optimisation with dpo-positive》)。

相关推荐
小鸡吃米…7 小时前
带Python的人工智能——计算机视觉
人工智能·python·计算机视觉
WWZZ20257 小时前
快速上手大模型:实践(Grounded-SAM2与Depth Anything V2)
大模型·sam·slam·多模态·具身智能·dino·grounded-sam2
AndrewHZ11 小时前
【图像处理基石】什么是光栅化?
图像处理·人工智能·算法·计算机视觉·3d·图形渲染·光栅化
白日做梦Q12 小时前
预训练模型微调(Finetune)实战:策略、技巧及常见误区规避
人工智能·python·神经网络·机器学习·计算机视觉
Σίσυφος190014 小时前
PnP和P3P详解与Matlab 实现
人工智能·计算机视觉
CP-DD14 小时前
训练可以正常开始 一到 Validation 就直接炸 a PTX JIT compilation failed
python·深度学习·计算机视觉
Jerryhut15 小时前
Opencv总结3——直方图和傅里叶变化
人工智能·opencv·计算机视觉
AI即插即用16 小时前
即插即用系列 | CVPR 2025 DICMP:基于深度信息辅助的图像去雾与深度估计双任务协同互促网络
图像处理·人工智能·深度学习·神经网络·计算机视觉·视觉检测
AI即插即用16 小时前
即插即用系列 | WACV 2024 CSAM:面向各向异性医学图像分割的 2.5D 跨切片注意力模块
图像处理·人工智能·深度学习·神经网络·目标检测·计算机视觉·视觉检测
magic_ll16 小时前
【大模型】使用llamafactory 训练 qwen2.5-VL 的目标检测任务
人工智能·目标检测·计算机视觉