技术栈
loss
sun_tao1
2 天前
人工智能
·
llm
·
损失函数
·
loss
主流大语言模型的损失函数异同
代表模型:GPT 系列、LLaMA、Mistral、Qwen 等代表模型:BERT、RoBERTa代表模型:T5、BART、GLM
Roselind_Yi
12 天前
人工智能
·
python
·
数据挖掘
·
nlp
·
gnn
·
情感分析
·
loss
多模态数据挖掘前沿:生物医学与情感分析领域论文深度解析
在人工智能与大数据技术飞速发展的当下,多模态数据因能更全面、立体地刻画研究对象,已成为科研领域的核心研究方向。本文将深度解析两篇聚焦多模态数据挖掘的重磅论文——《多模态生物数据分析与挖掘研究》与《多模态情感分析算法研究》,从研究背景、核心策略、技术实现到未来展望,完整呈现其研究脉络与创新价值,为相关领域从业者提供参考。
Yeliang Wu
4 个月前
loss
·
llamafactory
LLaMA Factory训练可视化管理:Loss曲线解析与性能优化
作者:吴业亮 博客:wuyeliang.blog.csdn.net在日常的大模型微调工作中,你是否经常遇到这些困扰:训练过程像个黑盒子,不知道模型到底学到了什么;损失曲线突然异常,却找不到问题根源;多轮实验参数混乱,无法有效对比效果?
tangjunjun-owen
7 个月前
人工智能
·
loss
·
rt-detrv2
RT-DETRv2 中的坐标回归机制深度解析:为什么用 `sigmoid(inv_sigmoid(ref) + delta)` 而不是除以图像尺寸?
在阅读 RT-DETRv2(Real-Time DETR v2)源码时,我曾被一行代码深深震撼:这行代码没有卷积、没有注意力、没有复杂的损失函数——它只是一个Sigmoid + 反Sigmoid + 加法的组合。但正是这个“简单”操作,让 RT-DETRv2 实现了:
君臣Andy
2 年前
gpt
·
loss
·
困惑度
GPT损失和是模型模型是否真的学会(困惑度)。
一个 与交叉熵损失相关的概念是大型语言模型(LLM)的困惑度。 困惑度简单地说就是交叉熵损失的指数函数计算结果 e l o s s e^{loss} eloss
LuckyTHP
2 年前
loss
SFTTrainer loss多少合适
在机器学习和深度学习中,“loss”(损失函数)的合理值并没有一个固定的标准,因为它依赖于多种因素,包括模型的类型、任务的性质、数据的规模和特性等。然而,我们可以从一些通用的原则和经验值来讨论损失函数的合理范围。
伊织code
2 年前
大模型
·
llama
·
eval
·
loss
·
validation
·
perplexity
·
holdout
Llama - Validation
本文翻译整理自:How-to guides Validation https://llama.meta.com/docs/how-to-guides/validation/
思考实践
2 年前
笔记
·
学习
·
多任务
·
loss
深度学习多任务学习笔记
【多任务学习】Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics-CSDN博客
或许,这就是梦想吧!
3 年前
python
·
loss
binary_cross_entropy和binary_cross_entropy_with_logits的区别
二分类问题是常见的机器学习任务之一,其目标是将样本分为两个类别。为了训练一个二分类模型,通常使用交叉熵作为损失函数。
我是有底线的