虽然ms-swift 3.x发布也有一段时间 官方文档也对使用上参数的变动做了一些说明
ReleaseNote 3.0 --- swift 3.2.0.dev0 文档
但是这个说明基本上都是说 某些参数的命名 发生了变化
对于一些 参数命名没变但默认值/使用方式 的变化 暂时还没给出说明/统计文档
我这边基于工作中遇到的一些坑,整理了部分,希望大家在使用的时候留意。
注意,在这个文档里官方已给出的参数差异我在这不做赘述分析,只展示我个人发现的一些暗坑,时间关系没有做精准校对,如果发现写错or官方更新文档 还请评论区提醒我
一、MLLM中sft full时默认可训练参数的变化
在swift2.x版本中,对MLLM进行SFT full训练的时候,默认是全参数训练的,见

但是在3.x中很坑的一点是默认只训练LLM,冻结vision encoder和adapter。。。
所以在swift 3.x用full sft训练MLLM的时候,切记把freeze_vit和freeze_aligner参数设置为False
二、梯度累加gradient_accumulation_steps
这个参数影响了total_batch_size或者说模型训练花的steps
在2.x中,默认为一个公式计算方法,以8卡为例,这个数值默认为2,也就是说total_batch_size会翻倍
然而在3.x中,默认为1
所以就会导致如果非16卡训练,2.x中和3.x中即使对齐了batch_size,最终的训练step也会有出入。
三、推理的时候--model和--adapters的区别
官方总文档里应该是有写这俩参数的区分,但是因为踩过坑,我在这里再注明一下
当全参数(sft full)训练的时候,推理infer的时候用--model xxx/path
当lora训练的时候,推理用--adapters xxx/path