【深度学习】多目标融合算法—样本Loss提权

目录

一、引言

二、样本Loss提权

[2.1 技术原理](#2.1 技术原理)

[2.2 技术优缺点](#2.2 技术优缺点)

三、总结


一、引言

在朴素的深度学习ctr预估模型中(如DNN),通常以一个行为为预估目标,比如通过ctr预估点击率。但实际推荐系统业务场景中,更多是多种目标融合的结果,比如视频推荐,会存在视频点击率、视频完整播放率、视频播放时长等多个目标,而多种目标如何更好的融合,在工业界与学术界均有较多内容产出,由于该环节对实际业务影响最为直接,特开此专栏对推荐系统深度学习多目标问题进行讲述。

今天重点介绍"样本Loss提权",该方法通过训练时梯度乘以样本权重实现对其它目标的加权,方法最为简单。

二、样本Loss提权

2.1 技术原理

所有目标使用一个模型,在标注正样本时,考虑多个目标。例如对于点击和播放,在标注正样本时,给予不同的权重,使它们综合体现在模型目标中。如下表,以视频业务为例,每行为一条训练样本,根据业务需要,把点击视频、视频完播、视频时长的权重分别设置为1、3、5。

该方法通过对不同正向行为给予不同权重,将多目标问题转化为单目标问题。本质是保证一个主目标的同时,将其它目标转化为样本权重,通过复制行为的方法改变数据分布,达到优化其它目标的效果。

2.2 技术优缺点

优点:

  • 模型简单:易于理解,仅在训练时通过梯度乘以样本权重实现对其它目标的加权
  • 成本较低:相比于训练多个目标模型再融合,单模型资源及维护成本更低

缺点:

  • 优化周期长:每次调整样本加权系数,都需要重新训练模型至其收敛
  • 跷跷板问题:多个目标之间可能存在相关或互斥的问题,导致一个行为指标提升的同时,另一个指标下降。

三、总结

本文从技术原理和技术优缺点方面对推荐系统深度学习多目标融合的"样本Loss加权"进行简要讲解,本质是对多个样本行为进行复制,以达到对预期指标的强化,具有模型简单,成本较低的优点,但同时优化周期长、多个指标跷跷板问题也是该方法的缺点,业界针对该方法的缺点进行了一系列的升级,专栏中会逐步讲解,期待您的关注。

相关推荐
字节架构前端1 小时前
Skill再回首—深度解读Anthropic官方最新Skill白皮书
人工智能·agent·ai编程
冬奇Lab2 小时前
OpenClaw 深度解析(八):Skill 系统——让 LLM 按需学习工作流
人工智能·开源·源码阅读
冬奇Lab2 小时前
一天一个开源项目(第45篇):OpenAI Agents SDK Python - 轻量级多 Agent 工作流框架,支持 100+ LLM 与实时语音
人工智能·开源·openai
小兵张健2 小时前
两个配置让 Codex 效率翻倍
人工智能·程序员·github copilot
kymjs张涛4 小时前
OpenClaw 学习小组:初识
android·linux·人工智能
yangpow24 小时前
拆解 OpenClaw 的 Skills 机制:一个为 AI Agent 设计的"包管理器"
人工智能
warm3snow4 小时前
AI 重塑产品管理工具:从 Jira 到智能体项目经理的终极演进
人工智能·ai·excel·项目管理·飞书·产品经理·jira·协同·tapd
吴佳浩4 小时前
OpenClaw macOS 完整安装与本地模型配置教程(实战版)
人工智能·macos·agent
吴佳浩5 小时前
OpenClaw 2026.3.2 — 2026.3.8 权限变更与安全加固
人工智能·openai·agent