技术栈
loss
Yeliang Wu
3 天前
loss
·
llamafactory
LLaMA Factory训练可视化管理:Loss曲线解析与性能优化
作者:吴业亮 博客:wuyeliang.blog.csdn.net在日常的大模型微调工作中,你是否经常遇到这些困扰:训练过程像个黑盒子,不知道模型到底学到了什么;损失曲线突然异常,却找不到问题根源;多轮实验参数混乱,无法有效对比效果?
tangjunjun-owen
3 个月前
人工智能
·
loss
·
rt-detrv2
RT-DETRv2 中的坐标回归机制深度解析:为什么用 `sigmoid(inv_sigmoid(ref) + delta)` 而不是除以图像尺寸?
在阅读 RT-DETRv2(Real-Time DETR v2)源码时,我曾被一行代码深深震撼:这行代码没有卷积、没有注意力、没有复杂的损失函数——它只是一个Sigmoid + 反Sigmoid + 加法的组合。但正是这个“简单”操作,让 RT-DETRv2 实现了:
君臣Andy
1 年前
gpt
·
loss
·
困惑度
GPT损失和是模型模型是否真的学会(困惑度)。
一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。 困惑度简单地说就是交叉熵损失的指数函数计算结果 e l o s s e^{loss} eloss
LuckyTHP
1 年前
loss
SFTTrainer loss多少合适
在机器学习和深度学习中,“loss”(损失函数)的合理值并没有一个固定的标准,因为它依赖于多种因素,包括模型的类型、任务的性质、数据的规模和特性等。然而,我们可以从一些通用的原则和经验值来讨论损失函数的合理范围。
伊织code
1 年前
大模型
·
llama
·
eval
·
loss
·
validation
·
perplexity
·
holdout
Llama - Validation
本文翻译整理自:How-to guides Validation https://llama.meta.com/docs/how-to-guides/validation/
思考实践
1 年前
笔记
·
学习
·
多任务
·
loss
深度学习多任务学习笔记
【多任务学习】Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics-CSDN博客
或许,这就是梦想吧!
2 年前
python
·
loss
binary_cross_entropy和binary_cross_entropy_with_logits的区别
二分类问题是常见的机器学习任务之一,其目标是将样本分为两个类别。为了训练一个二分类模型,通常使用交叉熵作为损失函数。
我是有底线的