YOLOv8训练参数总结及翻译

参数名称 默认值 描述
model None 指定用于训练的模型文件。接受 .pt 预训练模型或 .yaml 配置文件的路径。对于定义模型结构或初始化权重至关重要。
data None 数据集配置文件的路径(例如, coco8.yaml )。该文件包含特定于数据集的参数,包括到训练和验证数据的路径、类名和类数。
epochs 100 训练周期总数。每个epoch代表整个数据集的完整传递。调整这个值会影响训练时间和模型性能。
time None 最大培训时间(以小时为单位)。如果设置了,这将覆盖 epochs 参数,允许训练在指定的持续时间后自动停止。对于时间限制的训练场景非常有用。
patience 100 在早期停止训练之前,在验证度量没有改进的情况下等待的epoch数。当表现停滞时,停止训练有助于防止过度拟合。
batch 16 批量大小,有三种模式:设置为整数(例如 batch=16 ),自动模式为60%的GPU内存利用率( batch=-1 ),或自动模式为指定的利用率分数( batch=0.70 )。
imgsz 640 用于训练的目标图像大小。所有图像在输入到模型之前都会被调整到这个尺寸。影响模型精度和计算复杂度。
save True 允许保存训练检查点和最终模型权重。用于恢复训练或模型部署。
save_period -1 保存模型检查点的频率,以epoch指定。值为-1时禁用此特性。用于在长时间的训练期间保存临时模型。
cache False 启用在内存( True / ram )、磁盘( disk )或禁用( False )中缓存数据集图像。以增加内存使用为代价,通过减少磁盘I/O来提高训练速度。
device None 指定用于训练的计算设备:单个GPU ( device=0 ),多个GPU ( device=0,1 ), CPU ( device=cpu ),或用于Apple芯片的MPS ( device=mps )。
workers 8 用于数据加载的工作线程数(per RANK 如果是多gpu训练)。影响数据预处理和输入模型的速度,在多gpu设置中特别有用。
project None 保存培训输出的项目目录名称。允许有组织地存储不同的实验。
name None 训练运行的名称。用于在项目文件夹中创建子目录,用于存储培训日志和输出。
exist_ok False 如果为True,则允许覆盖现有的项目/名称目录。可用于迭代实验,无需手动清除先前的输出。
pretrained True 确定是否从预训练的模型开始训练。可以是布尔值或到要从中加载权重的特定模型的字符串路径。提高培训效率和模型性能。
optimizer 'auto' 训练优化器的选择。选项包括 SGD、 AdamAdamWNAdamRAdamRMSProp 等,或者根据型号配置自动选择 auto 。影响收敛速度和稳定性。
verbose False 支持训练期间的详细输出,提供详细的日志和进度更新。用于调试和密切监视培训过程。
seed 0 为训练设置随机种子,确保在相同配置的运行中结果的可重复性。
deterministic True 强制使用确定性算法,确保再现性,但由于对非确定性算法的限制,可能会影响性能和速度。
single_cls False 在训练期间将多类数据集中的所有类视为单个类。用于二元分类任务或关注对象存在而不是分类时。
rect False 使矩形训练,优化批量组成最小填充。可以提高效率和速度,但可能会影响模型的准确性。
cos_lr False 利用余弦学习率调度程序,调整学习率后,余弦曲线的epoch。有助于管理学习率以实现更好的收敛。
close_mosaic 10 在最后N次迭代中禁用马赛克数据增强,以在完成之前稳定训练。设置为0禁用此功能。
resume False 从上次保存的检查点恢复训练。自动加载模型权重、优化器状态和历元计数,无缝地继续训练。
amp True 支持自动混合精度(AMP)训练,减少内存使用,并可能在对准确性影响最小的情况下加速训练。
fraction 1.0 指定要用于训练的数据集的部分。允许在完整数据集的子集上进行训练,对于实验或资源有限时非常有用。
profile False 允许在训练期间对ONNX和TensorRT速度进行分析,有助于优化模型部署。
freeze None 通过索引冻结模型的前N层或指定层,减少可训练参数的数量。用于微调或迁移学习。
lr0 0.01 最初的学习速率(即 SGD=1E-2 , Adam=1E-3 )。调整此值对于优化过程至关重要,它会影响模型权重更新的速度。
lrf 0.01 最终学习率作为初始学习率的一部分= ( lr0 * lrf ),与调度器一起使用以随时间调整学习率。
momentum 0.937 SGD的动量因子或Adam优化器的beta1,影响当前更新中过去梯度的整合。
weight_decay 0.0005 L2正则化项,惩罚大权重以防止过拟合。
warmup_epochs 3.0 学习率预热的epoch数,从一个较低的学习率逐渐增加到初始学习率,以稳定早期的训练。
warmup_momentum 0.8 热身阶段的初始动量,在热身期间逐渐调整到设定的动量。
warmup_bias_lr 0.1 预热阶段偏差参数的学习率,有助于稳定初始阶段的模型训练。
box 7.5 损失函数中盒损失分量的权重,影响对准确预测边界盒坐标的重视程度。
cls 0.5 总损失函数中分类损失的权重,影响正确分类预测相对于其他成分的重要性。
dfl 1.5 分布焦点损失的权重,在某些YOLO版本中用于细粒度分类。
pose 12.0 姿态估计模型中姿态损失的权重,影响了对准确预测姿态关键点的重视。
kobj 2.0 姿态估计模型中关键点目标损失的权重,平衡检测置信度和姿态精度。
label_smoothing 0.0 应用标签平滑,软化硬标签的混合目标标签和均匀分布的标签,可以提高泛化。
nbs 64 归一化损失的标称批量大小。
overlap_mask True 确定在训练期间分割掩码是否应该重叠,适用于实例分割任务。
mask_ratio 4 分割蒙版的下采样率,影响训练时使用的蒙版的分辨率。
dropout 0.0 分类任务中正则化的失败率,通过在训练过程中随机省略单元来防止过拟合。
val True 在训练期间启用验证,允许在单独的数据集上定期评估模型性能。
plots False 生成并保存训练和验证度量的图,以及预测示例,提供对模型性能和学习进展的可视化洞察。
相关推荐
Leon哉6 分钟前
PyCharm中如何将某个文件设置为默认运行文件
ide·python·pycharm
三花AI10 分钟前
对标 GPT-4o 的开源实时语音多模态模型:Moshi
人工智能·gpt·语言模型·语音识别
Hugo_Hoo36 分钟前
构建LangChain应用程序的示例代码:53、利用多模态大型语言模型在RAG应用中处理混合文档的示例
人工智能·langchain·ai编程
wenpingyang41 分钟前
python学习2-数据结构与算法-链表
python·学习·链表
孤寒者41 分钟前
(三十一)Flask之wtforms库【剖析源码下篇】
后端·python·flask·源码剖析·wtforms
milong5211 小时前
Flask自定义命令
后端·python·flask
东方佑1 小时前
使用tkinter 制作工作流ui
前端·windows·笔记·python·ui·分类
knighthood20011 小时前
flask中解决图片不显示的问题(很细微的点)
后端·python·flask
eclipsercp1 小时前
《每天5分钟用Flask搭建一个管理系统》 第10章:前端集成
前端·python·flask
人工智能小豪1 小时前
LLM大模型企业应用实战-----为Langchain Agent添加记忆功能
人工智能·langchain·大模型·llm·私有化部署·产品经理·ai大模型