搜广推校招面经四十五

快手主站推荐算法

这个是做因果选券的,如果大家的工作和这个有关,可以看看

一、有没有分析特征对各个的贡献度,怎么做?

传统的特征重要度衡量方法,就不介绍了。什么基于树模型的、SHAP值、LIME等。

但其实实际工程中一般还是使用Null Importance 特征贡献度。

1.1. Null Importance 特征贡献度

Null Importance 是一种基于置换检验(Permutation Test)的特征选择方法,用于评估特征的真实贡献度。通过比较真实特征重要性与随机噪声下的特征重要性,可以识别出对模型预测有实际贡献的特征。

1.1.1. Null Importance 的核心思想

Null Importance 的核心思想是通过以下步骤评估特征的重要性:

  1. 计算真实特征重要性:使用原始数据训练模型,并计算每个特征的重要性。
  2. 生成 Null Importance :通过随机打乱(置换)目标变量 Y Y Y,破坏特征与目标变量之间的关系,然后重新训练模型并计算特征重要性。
  3. 比较真实重要性与 Null Importance:通过统计检验或阈值比较,筛选出显著高于 Null Importance 的特征。

1.1.2. 改进

上述方法还要计算特征重要性,但是在实际工程中,其实没法计算特征重要性。所以完全可以通过打乱

二、消偏工作:倾向分消偏、IPS、DR 和消偏塔

2.1. 倾向分消偏

倾向分消偏(Propensity Score Adjustment)主要用于处理样本之间的选择偏差。其基本思想是计算每个个体被选入某个处理组的概率(倾向分),然后在建模时使用倾向分进行调整,确保处理组和对照组在观察变量上尽可能相似。具体方法包括:

  • 倾向分匹配(PSM, Propensity Score Matching):找到匹配的个体,使得不同处理组之间的个体在倾向分上尽可能相似。
  • 倾向分加权(IPW, Inverse Probability Weighting):使用倾向分的倒数作为权重,在模型训练时重新加权样本,以减少偏差。
  • 倾向分分层(Stratification):将数据集按照倾向分分成若干层,每一层内部保证不同处理组的个体在倾向分上尽可能相似。

2.2. IPS 和 DR 消偏

IPS(Inverse Propensity Score)和 DR(Doubly Robust)是两种常见的消偏方法:

  • IPS(逆倾向评分加权)

    • 公式:
      W i = T i P ( T i ∣ X i ) + ( 1 − T i ) 1 − P ( T i ∣ X i ) W_i = \frac{T_i}{P(T_i | X_i)} + \frac{(1 - T_i)}{1 - P(T_i | X_i)} Wi=P(Ti∣Xi)Ti+1−P(Ti∣Xi)(1−Ti)
    • 其中, T i T_i Ti 是处理变量, P ( T i ∣ X i ) P(T_i | X_i) P(Ti∣Xi) 是倾向分。
    • IPS 方法通过对样本进行加权,使不同组别的样本在统计上具有相似的分布。
  • DR(双重稳健方法)

    • 结合了倾向分加权和回归模型,既能利用倾向分减少选择偏差,又能利用回归模型降低模型方差。
    • 其核心是对 IPS 进行调整,使得即便倾向分模型不完全准确,回归模型也可以部分补偿偏差。

2.3. 消偏塔(De-biasing Tower)

消偏塔通常指的是一种分层消偏方法,通常涉及多个步骤:

  1. 原始数据层(Raw Data Layer)

    • 收集所有原始特征数据,并进行预处理,如缺失值填充、标准化等。
  2. 倾向分计算层(Propensity Score Estimation Layer)

    • 训练倾向分模型,如逻辑回归、梯度提升树(GBDT)或深度学习模型,计算每个样本的倾向分。
  3. 样本调整层(Reweighting Layer)

    • 使用 IPS、PSM、DR 等方法进行样本加权或匹配,以调整数据分布,减少偏差。
  4. 建模层(Modeling Layer)

    • 在消偏后的数据上训练目标模型,如分类、回归或推荐系统模型。
  5. 评估层(Evaluation Layer)

    • 评估消偏效果,例如通过 ATE(Average Treatment Effect)、ATT(Average Treatment on Treated)等指标衡量偏差是否减少。

2.4. 总结

  • 倾向分消偏 主要通过计算个体的倾向分来调整不同组别的样本,使其在统计上更加可比。
  • IPS 和 DR 消偏 提供了一种基于加权和双重稳健的方法来进一步减少偏差。
  • 消偏塔 采用分层处理的方式,从原始数据到最终模型,逐步减少选择偏差,提升模型的稳健性。

三、介绍EFIN模型

使用显式特征的在线交互感知提升网络(EFIN)

相关推荐
AngelPP10 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年10 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼10 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS11 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区12 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈12 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang12 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx
颜酱14 小时前
单调栈:从模板到实战
javascript·后端·算法
shengjk114 小时前
NanoClaw 深度剖析:一个"AI 原生"架构的个人助手是如何运转的?
人工智能