loss

Yeliang Wu3 天前
loss·llamafactory
LLaMA Factory训练可视化管理:Loss曲线解析与性能优化作者:吴业亮 博客:wuyeliang.blog.csdn.net在日常的大模型微调工作中,你是否经常遇到这些困扰:训练过程像个黑盒子,不知道模型到底学到了什么;损失曲线突然异常,却找不到问题根源;多轮实验参数混乱,无法有效对比效果?
tangjunjun-owen3 个月前
人工智能·loss·rt-detrv2
RT-DETRv2 中的坐标回归机制深度解析:为什么用 `sigmoid(inv_sigmoid(ref) + delta)` 而不是除以图像尺寸?在阅读 RT-DETRv2(Real-Time DETR v2)源码时,我曾被一行代码深深震撼:这行代码没有卷积、没有注意力、没有复杂的损失函数——它只是一个Sigmoid + 反Sigmoid + 加法的组合。但正是这个“简单”操作,让 RT-DETRv2 实现了:
君臣Andy1 年前
gpt·loss·困惑度
GPT损失和是模型模型是否真的学会(困惑度)。一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。 困惑度简单地说就是交叉熵损失的指数函数计算结果 e l o s s e^{loss} eloss
LuckyTHP1 年前
loss
SFTTrainer loss多少合适在机器学习和深度学习中,“loss”(损失函数)的合理值并没有一个固定的标准,因为它依赖于多种因素,包括模型的类型、任务的性质、数据的规模和特性等。然而,我们可以从一些通用的原则和经验值来讨论损失函数的合理范围。
伊织code1 年前
大模型·llama·eval·loss·validation·perplexity·holdout
Llama - Validation本文翻译整理自:How-to guides Validation https://llama.meta.com/docs/how-to-guides/validation/
思考实践1 年前
笔记·学习·多任务·loss
深度学习多任务学习笔记【多任务学习】Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics-CSDN博客
或许,这就是梦想吧!2 年前
python·loss
binary_cross_entropy和binary_cross_entropy_with_logits的区别二分类问题是常见的机器学习任务之一,其目标是将样本分为两个类别。为了训练一个二分类模型,通常使用交叉熵作为损失函数。
我是有底线的