DIN模型和SIM模型原理与实践

文章目录

1.DIN模型

原理

  • 计算用户Last N向量的加权平均
  • 权重是候选物品与Last N物品的相似度

缺点

  • 注意力层的计算量正比于n(用户行为序列的长度)
  • 只能记录最近的几百个物品,否则计算量太大
  • 只关心短期兴趣,会遗忘长期兴趣

2.SIM模型

对长期兴趣建模

原理

  • 对用户长期行为记录,n大小可以是几千
  • 对于每个候选物品,在用户Last N记录中快速查找,找到k个相似物品
  • 把Last N变成TopK,然后输入注意力层
  • 计算量从n降到k

算法步骤

1.查找

2.注意力机制

对比DIN,user侧的LastN交互记录 被换成了上一步查找到的TopK交互记录



参考文献

王树森推荐系统公开课-SIM模型
SIM论文
DIN论文

相关推荐
2的n次方_1 分钟前
CANN ascend-transformer-boost 架构解析:融合注意力算子管线、长序列分块策略与图引擎协同机制
深度学习·架构·transformer
人工智能培训4 分钟前
具身智能视觉、触觉、力觉、听觉等信息如何实时对齐与融合?
人工智能·深度学习·大模型·transformer·企业数字化转型·具身智能
pp起床2 小时前
Gen_AI 补充内容 Logit Lens 和 Patchscopes
人工智能·深度学习·机器学习
阿杰学AI2 小时前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
芷栀夏3 小时前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络
Yeats_Liao6 小时前
评估体系构建:基于自动化指标与人工打分的双重验证
运维·人工智能·深度学习·算法·机器学习·自动化
Tadas-Gao6 小时前
缸中之脑:大模型架构的智能幻象与演进困局
人工智能·深度学习·机器学习·架构·大模型·llm
2301_818730566 小时前
transformer(上)
人工智能·深度学习·transformer
木枷6 小时前
Online Process Reward Learning for Agentic Reinforcement Learning
人工智能·深度学习·机器学习
陈天伟教授7 小时前
人工智能应用- 语言处理:02.机器翻译:规则方法
人工智能·深度学习·神经网络·语言模型·自然语言处理·机器翻译