【第六章:项目实战之推荐/广告系统】3.精排算法-(2)精排算法模型精讲: DNN、deepFM、ESMM、PLE、MMOE算法精讲与实现- DNN 精排模型

第六章:项目实战之推荐/广告系统

第三部分:精排算法

第二节:精排算法模型精讲: DNN、deepFM、ESMM、PLE、MMOE算法精讲与实现

1.DNN 精排模型


一、精排为什么需要 DNN?(问题出发)

在推荐系统中,精排模型的核心目标是:

对候选集合中的每一个 item 进行精准打分,预测用户点击/转化概率,例如 CTR 或 CVR。

召回阶段更多是 粗粒度语义匹配(user embedding vs item embedding),而精排面对的是:

对象 粒度 输入特征 行为预测
召回 用户/物品 embedding 语义相关
精排 用户全量特征 + 物品全量特征 + 上下文特征 CTR/CVR 精细化预测

因此,精排模型必须具备两种能力:

  1. 非线性表达特征交互能力

  2. 适应多模态/多场景业务特征能力

=> 简单线性模型(如 LR)只能做特征加权,无法拟合用户兴趣这种复杂分布

=> DNN(多层感知机 MLP)成为精排模型最基础的骨架


二、DNN 精排模型结构图(核心形态)

复制代码
[User Sparse Feature] → Embedding ┐
                                   ├→ concat → MLP → sigmoid → CTR 预测
[Item Sparse Feature] → Embedding ┘
[Dense Feature] ───────────────────┘

特征分为三类:

特征类别 举例 处理方式
Sparse(稀疏特征) user_id、item_id、tag_id Embedding 转低维向量
Dense(数值特征) age、watch_time、ctr_stat 归一化后直接输入
Cross / Context hour、device、geo 与 user/item 拼特征

最终输入网络:

优化目标(CTR 用 BCE):


三、DNN 精排模型 PyTorch 实现(可运行)

python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

class DNNRankModel(nn.Module):
    def __init__(self, user_vocab, item_vocab, emb_dim=32, hidden=[128, 64, 32]):
        super(DNNRankModel, self).__init__()
        self.user_emb = nn.Embedding(user_vocab, emb_dim)
        self.item_emb = nn.Embedding(item_vocab, emb_dim)

        input_dim = emb_dim * 2 + 10  # 假设 dense feature = 10 维
        layers = []
        for h in hidden:
            layers.append(nn.Linear(input_dim, h))
            layers.append(nn.ReLU())
            input_dim = h
        self.mlp = nn.Sequential(*layers)
        self.out = nn.Linear(hidden[-1], 1)

    def forward(self, user_id, item_id, dense_feature):
        u = self.user_emb(user_id)
        i = self.item_emb(item_id)
        x = torch.cat([u, i, dense_feature], dim=-1)
        x = self.mlp(x)
        x = torch.sigmoid(self.out(x))
        return x

四、TensorFlow 版本(结构完全对齐)

python 复制代码
import tensorflow as tf
from tensorflow.keras import layers, Model

class DNNRankModelTF(Model):
    def __init__(self, user_vocab, item_vocab, emb_dim=32, hidden=[128, 64, 32]):
        super().__init__()
        self.user_emb = layers.Embedding(user_vocab, emb_dim)
        self.item_emb = layers.Embedding(item_vocab, emb_dim)
        self.mlp = tf.keras.Sequential(
            [layers.Dense(h, activation='relu') for h in hidden]
        )
        self.out = layers.Dense(1, activation='sigmoid')

    def call(self, inputs):
        user_id, item_id, dense_feature = inputs
        u = self.user_emb(user_id)
        i = self.item_emb(item_id)
        x = tf.concat([u, i, dense_feature], axis=-1)
        x = self.mlp(x)
        return self.out(x)

五、适用性分析与优缺点

维度 评价
优点 结构简单、可拟合任意特征、训练稳定,是所有精排模型基础骨架
缺点 无显式特征交互能力(与 FM/DeepFM 对比)
应用场景 早期精排、线上 baseline、工业可控场景
相关推荐
果汁华13 分钟前
Browserbase Skills:让 Claude Agent 真正“看见“网页世界
人工智能·python
ZhengEnCi14 分钟前
04-缩放点积注意力代码实现 💻
人工智能·python
2zcode35 分钟前
基于LSTM神经网络的金属材料机器学习本构模型研究(硕士级别)
神经网络·机器学习·lstm·金属材料
HackTwoHub1 小时前
AI大模型网关存在SQL注入、附 POC 复现、影响版本LiteLLM 1.81.16~1.83.7(CVE-2026-42208)
数据库·人工智能·sql·网络安全·系统安全·网络攻击模型·安全架构
段一凡-华北理工大学1 小时前
【高炉炼铁领域炉温监测、预警、调控智能体设计与应用】~系列文章08:多模态数据融合:让数据更聪明
人工智能·python·高炉炼铁·ai赋能·工业智能体·高炉炉温
网络工程小王2 小时前
【LangChain 大模型6大调用指南】调用大模型篇
linux·运维·服务器·人工智能·学习
HIT_Weston2 小时前
63、【Agent】【OpenCode】用户对话提示词(示例)
人工智能·agent·opencode
CV-杨帆2 小时前
Phi-4-mini-flash-reasoning 部署安装与推理测试完整记录
人工智能
MediaTea2 小时前
AI 术语通俗词典:C4.5 算法
人工智能·算法
海兰3 小时前
【第27篇】Micrometer + Zipkin
人工智能·spring boot·alibaba·spring ai